NVIDIA H200 NVL

  • Architektura GPU NVIDIA Hopper

  • Akcelerator GPU zoptymalizowany do generatywnej AI i obliczeń HPC

  • 14592 rdzenie NVIDIA CUDA do obliczeń równoległych na dużą skalę

  • 456 rdzeni NVIDIA Tensor do trenowania i inferencji modeli AI

  • 141 GB pamięci HBM3e z ECC – ogromna przestrzeń dla największych modeli AI

  • Przepustowość pamięci do 4,8 TB/s

  • Interfejs PCIe 5.0 x16 zapewniający bardzo wysoką przepustowość danych

  • Pasywne chłodzenie przeznaczone do serwerów i klastrów GPU

  • Maksymalny pobór mocy: 600 W

Na zamówienie

Darmowa dostawa

Promocja cenowa na model HDR-15-5

Produkt przeznaczony wyłącznie do zastosowań profesjonalnych
NVIDIA H200 NVL

NVIDIA H200 NVL

Opis

NVIDIA H200 NVL - akcelerator GPU dla generatywnej AI i największych modeli LLM

NVIDIA H200 Tensor Core GPU to jeden z najnowszych i najbardziej zaawansowanych akceleratorów obliczeniowych zaprojektowanych dla infrastruktury sztucznej inteligencji oraz obliczeń wysokiej wydajności (HPC). Układ oparty na architekturze NVIDIA Hopper zapewnia przełomową wydajność oraz ogromną przepustowość pamięci, umożliwiając obsługę najbardziej wymagających obciążeń AI.

GPU H200 NVL został zaprojektowany z myślą o trenowaniu i uruchamianiu bardzo dużych modeli sztucznej inteligencji, w tym systemów generatywnej AI wykorzystywanych w przedsiębiorstwach oraz centrach danych. Dzięki nowej generacji pamięci HBM3e akcelerator oferuje znacząco większą przepustowość oraz pojemność pamięci niż wcześniejsze generacje GPU.

NVIDIA H200 NVL jest pierwszym akceleratorem GPU wykorzystującym pamięć HBM3e, co umożliwia znaczne przyspieszenie generatywnej AI, dużych modeli językowych oraz obliczeń naukowych.

Architektura NVIDIA Hopper i pamięć HBM3e

Akcelerator wykorzystuje architekturę NVIDIA Hopper, która została zaprojektowana z myślą o maksymalnym przyspieszeniu obliczeń AI. GPU wyposażony jest w 14592 rdzenie CUDA oraz 456 rdzeni Tensor, które przyspieszają operacje matematyczne wykorzystywane w deep learningu.

Najważniejszą innowacją H200 jest zastosowanie 141 GB pamięci HBM3e z korekcją błędów ECC oraz przepustowości sięgającej 4,8 TB/s. Dzięki temu GPU może obsługiwać największe modele sztucznej inteligencji oraz ogromne zbiory danych wykorzystywane w nowoczesnych systemach AI.

14592
rdzenie CUDA
456
rdzenie Tensor
141 GB
pamięci HBM3e
4,8 TB/s
przepustowości pamięci

GPU dla generatywnej sztucznej inteligencji

NVIDIA H200 NVL jest projektowany jako akcelerator dla najbardziej zaawansowanych systemów generatywnej sztucznej inteligencji. GPU umożliwia trenowanie ogromnych modeli AI oraz ich szybkie wdrażanie w środowiskach produkcyjnych.

Large Language Models
trenowanie i inferencja modeli LLM
Multimodal AI
VLM i systemy łączące tekst, obraz i wideo
Systemy RAG
AI korzystająca z wiedzy przedsiębiorstwa
AI w chmurze
platformy AI-as-a-Service
Analiza danych
big data i analityka AI
Symulacje HPC
obliczenia naukowe i badawcze

Akcelerator dla centrów danych nowej generacji

GPU NVIDIA H200 NVL został zaprojektowany do pracy w nowoczesnych platformach serwerowych oraz klastrach GPU wykorzystywanych w centrach danych. Interfejs PCIe 5.0 x16 zapewnia bardzo wysoką przepustowość komunikacji między GPU a systemem serwerowym.

Dzięki pasywnemu chłodzeniu oraz maksymalnemu poborowi mocy wynoszącemu 600 W, akcelerator jest przeznaczony do pracy w profesjonalnej infrastrukturze AI oraz systemach HPC obsługujących najbardziej wymagające obciążenia.

GPU dla infrastruktury AI i superkomputerów

Rosnąca złożoność modeli sztucznej inteligencji powoduje zapotrzebowanie na ogromną moc obliczeniową oraz bardzo dużą przepustowość pamięci. NVIDIA H200 NVL odpowiada na te potrzeby, umożliwiając budowę skalowalnych platform AI wykorzystywanych w przedsiębiorstwach, centrach danych oraz instytutach badawczych.

Akcelerator stanowi kluczowy element infrastruktury wykorzystywanej do trenowania największych modeli sztucznej inteligencji oraz prowadzenia zaawansowanych obliczeń naukowych.

Specyfikacja

Specyfikacja H200 SXM H200 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core² 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core² 1 979 TFLOPS 1 671 TFLOPS
FP16 Tensor Core² 1 979 TFLOPS 1 671 TFLOPS
FP8 Tensor Core² 3 958 TFLOPS 3 341 TFLOPS
INT8 Tensor Core² 3 958 TFLOPS 3 341 TFLOPS
Pamięć GPU 141 GB 141 GB
Przepustowość pamięci GPU 4,8 TB/s 4,8 TB/s
Dekodery 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
Bezpieczne obliczenia (Confidential Computing) Obsługiwane Obsługiwane
Maks. pobór mocy (TDP) Do 700W (konfigurowalne) Do 600W (konfigurowalne)
Wiele instancji GPU (MIG) Do 7 MIG po 18GB Do 7 MIG po 16,5GB
Format SXM PCIe
Dwuslotowe, chłodzenie powietrzem
Połączenia NVIDIA NVLink: 900GB/s
PCIe Gen5: 128GB/s
Mostek NVIDIA NVLink 2- lub 4-kierunkowy: 900GB/s na GPU
PCIe Gen5: 128GB/s
Opcje serwerowe Partnerzy NVIDIA HGX H200 i systemy NVIDIA-Certified z 4 lub 8 GPU Partnerzy NVIDIA MGX H200 NVL i systemy NVIDIA-Certified z maks. 8 GPU
Dodatek NVIDIA AI Enterprise W zestawie W zestawie

¹ Specyfikacje wstępne, mogą ulec zmianie.
² Z uwzględnieniem rzadkości (sparsity).

Skontaktuj się ze specjalistą Elmark

Masz pytania? Potrzebujesz porady? Zadzwoń lub napisz do nas!