NVIDIA H100

  • Architektura GPU NVIDIA Hopper

  • Akcelerator GPU zoptymalizowany do AI, HPC i centrów danych

  • 14592 rdzenie NVIDIA CUDA do obliczeń równoległych na dużą skalę

  • 456 rdzeni Tensor nowej generacji do trenowania i inferencji modeli AI

  • 80 GB pamięci HBM2e z ECC do obsługi bardzo dużych modeli AI i zbiorów danych

  • Przepustowość pamięci do 2 TB/s

  • Interfejs PCIe 5.0 x16 zapewniający maksymalną przepustowość komunikacji z systemem

  • Pasywne chłodzenie przeznaczone do serwerów i klastrów GPU

  • Maksymalny pobór mocy: 350 W

Na zamówienie

Darmowa dostawa

Promocja cenowa na model HDR-15-5

Produkt przeznaczony wyłącznie do zastosowań profesjonalnych
NVIDIA H100

NVIDIA H100

Opis

NVIDIA H100 - akcelerator GPU dla generatywnej sztucznej inteligencji

NVIDIA H100 Tensor Core GPU to jeden z najbardziej zaawansowanych akceleratorów obliczeniowych stworzonych dla nowoczesnych centrów danych i infrastruktury sztucznej inteligencji. Układ oparty na architekturze NVIDIA Hopper został zaprojektowany specjalnie z myślą o obsłudze najbardziej wymagających obciążeń związanych z trenowaniem i uruchamianiem modeli sztucznej inteligencji nowej generacji.

GPU H100 stanowi fundament wielu współczesnych platform AI wykorzystywanych w przedsiębiorstwach, centrach danych oraz środowiskach badawczych. Dzięki ogromnej mocy obliczeniowej oraz bardzo wysokiej przepustowości pamięci umożliwia trenowanie modeli o miliardach parametrów oraz obsługę złożonych systemów analizy danych.

NVIDIA H100 jest projektowany jako akcelerator dla generatywnej AI — umożliwia trenowanie i uruchamianie dużych modeli językowych, systemów multimodalnych oraz platform AI wykorzystywanych w przedsiębiorstwach i chmurach obliczeniowych.

Architektura NVIDIA Hopper - nowa generacja akceleracji AI

Architektura NVIDIA Hopper wprowadza nową generację rdzeni Tensor oraz znaczące usprawnienia w przetwarzaniu obliczeń związanych z deep learningiem i analizą danych. Akcelerator H100 wyposażony jest w 14592 rdzenie CUDA oraz 456 rdzeni Tensor, które przyspieszają operacje macierzowe stanowiące podstawę nowoczesnych modeli sztucznej inteligencji.

Dzięki zastosowaniu 80 GB pamięci HBM2e z korekcją błędów ECC oraz przepustowości sięgającej 2 TB/s, GPU umożliwia przetwarzanie ogromnych zbiorów danych oraz trenowanie modeli AI o bardzo dużej liczbie parametrów.

14592
rdzenie CUDA
456
rdzenie Tensor
80 GB
pamięci HBM2e
2 TB/s
przepustowości pamięci

GPU zaprojektowany dla modeli generatywnej AI

NVIDIA H100 jest jednym z najczęściej wykorzystywanych akceleratorów w infrastrukturze generatywnej sztucznej inteligencji. GPU umożliwia zarówno trenowanie ogromnych modeli AI, jak i ich szybkie wdrażanie w środowiskach produkcyjnych.

Akcelerator znajduje zastosowanie w systemach takich jak:

Large Language Models (LLM)
trenowanie i inferencja modeli językowych
Modele multimodalne
VLM łączące tekst, obraz i wideo
Systemy RAG
AI korzystająca z wiedzy przedsiębiorstwa
Analiza danych
big data i AI enterprise
AI w chmurze
platformy AI-as-a-Service
HPC i symulacje
zaawansowane obliczenia naukowe

Infrastruktura GPU dla centrów danych

NVIDIA H100 jest przeznaczony do instalacji w nowoczesnych systemach serwerowych oraz klastrach GPU o bardzo wysokiej gęstości obliczeniowej. Interfejs PCIe 5.0 x16 zapewnia bardzo wysoką przepustowość komunikacji między GPU a systemem serwerowym.

Dzięki pasywnemu chłodzeniu oraz maksymalnemu poborowi mocy wynoszącemu 350 W, karta jest przystosowana do pracy w profesjonalnych platformach GPU wykorzystywanych w centrach danych i infrastrukturze AI.

Dlaczego NVIDIA H100 jest kluczowy dla rozwoju AI

Współczesne modele sztucznej inteligencji wymagają ogromnej mocy obliczeniowej oraz bardzo wysokiej przepustowości pamięci. NVIDIA H100 został zaprojektowany właśnie z myślą o takich wymaganiach i stanowi podstawę infrastruktury AI wykorzystywanej przez przedsiębiorstwa technologiczne, instytuty badawcze oraz platformy chmurowe na całym świecie.

Dzięki architekturze Hopper oraz zaawansowanym rdzeniom Tensor, GPU H100 umożliwia znaczne skrócenie czasu trenowania modeli AI oraz zwiększenie wydajności systemów wykorzystujących sztuczną inteligencję.

Specyfikacja

H100 SXM H100 NVL
FP64 34 teraFLOPS 30 teraFLOPS
Rdzenie Tensor FP64 67 teraFLOPS 60 teraFLOPS
FP32 67 teraFLOPS 60 teraFLOPS
Rdzenie Tensor TF32* 989 teraFLOPS 835 teraFLOPS
Rdzenie Tensor BFLOAT16* 1,979 teraFLOPS 1,671 teraFLOPS
Rdzenie Tensor FP16* 1,979 teraFLOPS 1,671 teraFLOPS
Rdzenie Tensor FP8* 3,958 teraFLOPS 3,341 teraFLOPS
Rdzenie Tensor INT8* 3,958 TOPS 3,341 TOPS
Pamięć GPU 80 GB 94 GB
Przepustowość pamięci GPU 3,35 TB/s 3,9 TB/s
Dekodery 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Maksymalny pobór mocy (TDP) Do 700 W (konfigurowalny) 350-400 W (konfigurowalny)
Wieloinstancyjne GPU (MIG) Do 7 MIG po 10 GB każdy Do 7 MIG po 12 GB każdy
Format karty SXM PCIe dual-slot, chłodzenie powietrzem
Interfejs połączenia NVIDIA NVLink™: 900 GB/s, PCIe Gen5: 128 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5: 128 GB/s
Opcje serwerowe NVIDIA HGX H100, Partner i systemy certyfikowane przez NVIDIA z 4 lub 8 GPU NVIDIA DGX H100 z 8 GPU, Partner i systemy certyfikowane przez NVIDIA z 1–8 GPU
Dodatki NVIDIA Enterprise Wliczone Wliczone
Uwagi *Z użyciem sparsity

Skontaktuj się ze specjalistą Elmark

Masz pytania? Potrzebujesz porady? Zadzwoń lub napisz do nas!