
NVIDIA H100
Architektura GPU NVIDIA Hopper
Akcelerator GPU zoptymalizowany do AI, HPC i centrów danych
14592 rdzenie NVIDIA CUDA do obliczeń równoległych na dużą skalę
456 rdzeni Tensor nowej generacji do trenowania i inferencji modeli AI
80 GB pamięci HBM2e z ECC do obsługi bardzo dużych modeli AI i zbiorów danych
Przepustowość pamięci do 2 TB/s
Interfejs PCIe 5.0 x16 zapewniający maksymalną przepustowość komunikacji z systemem
Pasywne chłodzenie przeznaczone do serwerów i klastrów GPU
Maksymalny pobór mocy: 350 W
Darmowa dostawa
Promocja cenowa na model HDR-15-5
Produkt przeznaczony wyłącznie do zastosowań profesjonalnych
NVIDIA H100
Opis
NVIDIA H100 - akcelerator GPU dla generatywnej sztucznej inteligencji
NVIDIA H100 Tensor Core GPU to jeden z najbardziej zaawansowanych akceleratorów obliczeniowych stworzonych dla nowoczesnych centrów danych i infrastruktury sztucznej inteligencji. Układ oparty na architekturze NVIDIA Hopper został zaprojektowany specjalnie z myślą o obsłudze najbardziej wymagających obciążeń związanych z trenowaniem i uruchamianiem modeli sztucznej inteligencji nowej generacji.
GPU H100 stanowi fundament wielu współczesnych platform AI wykorzystywanych w przedsiębiorstwach, centrach danych oraz środowiskach badawczych. Dzięki ogromnej mocy obliczeniowej oraz bardzo wysokiej przepustowości pamięci umożliwia trenowanie modeli o miliardach parametrów oraz obsługę złożonych systemów analizy danych.
Architektura NVIDIA Hopper - nowa generacja akceleracji AI
Architektura NVIDIA Hopper wprowadza nową generację rdzeni Tensor oraz znaczące usprawnienia w przetwarzaniu obliczeń związanych z deep learningiem i analizą danych. Akcelerator H100 wyposażony jest w 14592 rdzenie CUDA oraz 456 rdzeni Tensor, które przyspieszają operacje macierzowe stanowiące podstawę nowoczesnych modeli sztucznej inteligencji.
Dzięki zastosowaniu 80 GB pamięci HBM2e z korekcją błędów ECC oraz przepustowości sięgającej 2 TB/s, GPU umożliwia przetwarzanie ogromnych zbiorów danych oraz trenowanie modeli AI o bardzo dużej liczbie parametrów.
rdzenie CUDA
rdzenie Tensor
pamięci HBM2e
przepustowości pamięci
GPU zaprojektowany dla modeli generatywnej AI
NVIDIA H100 jest jednym z najczęściej wykorzystywanych akceleratorów w infrastrukturze generatywnej sztucznej inteligencji. GPU umożliwia zarówno trenowanie ogromnych modeli AI, jak i ich szybkie wdrażanie w środowiskach produkcyjnych.
Akcelerator znajduje zastosowanie w systemach takich jak:
trenowanie i inferencja modeli językowych
VLM łączące tekst, obraz i wideo
AI korzystająca z wiedzy przedsiębiorstwa
big data i AI enterprise
platformy AI-as-a-Service
zaawansowane obliczenia naukowe
Infrastruktura GPU dla centrów danych
NVIDIA H100 jest przeznaczony do instalacji w nowoczesnych systemach serwerowych oraz klastrach GPU o bardzo wysokiej gęstości obliczeniowej. Interfejs PCIe 5.0 x16 zapewnia bardzo wysoką przepustowość komunikacji między GPU a systemem serwerowym.
Dzięki pasywnemu chłodzeniu oraz maksymalnemu poborowi mocy wynoszącemu 350 W, karta jest przystosowana do pracy w profesjonalnych platformach GPU wykorzystywanych w centrach danych i infrastrukturze AI.
Dlaczego NVIDIA H100 jest kluczowy dla rozwoju AI
Współczesne modele sztucznej inteligencji wymagają ogromnej mocy obliczeniowej oraz bardzo wysokiej przepustowości pamięci. NVIDIA H100 został zaprojektowany właśnie z myślą o takich wymaganiach i stanowi podstawę infrastruktury AI wykorzystywanej przez przedsiębiorstwa technologiczne, instytuty badawcze oraz platformy chmurowe na całym świecie.
Dzięki architekturze Hopper oraz zaawansowanym rdzeniom Tensor, GPU H100 umożliwia znaczne skrócenie czasu trenowania modeli AI oraz zwiększenie wydajności systemów wykorzystujących sztuczną inteligencję.
Specyfikacja
| H100 SXM | H100 NVL | |
|---|---|---|
| FP64 | 34 teraFLOPS | 30 teraFLOPS |
| Rdzenie Tensor FP64 | 67 teraFLOPS | 60 teraFLOPS |
| FP32 | 67 teraFLOPS | 60 teraFLOPS |
| Rdzenie Tensor TF32* | 989 teraFLOPS | 835 teraFLOPS |
| Rdzenie Tensor BFLOAT16* | 1,979 teraFLOPS | 1,671 teraFLOPS |
| Rdzenie Tensor FP16* | 1,979 teraFLOPS | 1,671 teraFLOPS |
| Rdzenie Tensor FP8* | 3,958 teraFLOPS | 3,341 teraFLOPS |
| Rdzenie Tensor INT8* | 3,958 TOPS | 3,341 TOPS |
| Pamięć GPU | 80 GB | 94 GB |
| Przepustowość pamięci GPU | 3,35 TB/s | 3,9 TB/s |
| Dekodery | 7 NVDEC, 7 JPEG | 7 NVDEC, 7 JPEG |
| Maksymalny pobór mocy (TDP) | Do 700 W (konfigurowalny) | 350-400 W (konfigurowalny) |
| Wieloinstancyjne GPU (MIG) | Do 7 MIG po 10 GB każdy | Do 7 MIG po 12 GB każdy |
| Format karty | SXM | PCIe dual-slot, chłodzenie powietrzem |
| Interfejs połączenia | NVIDIA NVLink™: 900 GB/s, PCIe Gen5: 128 GB/s | NVIDIA NVLink: 600 GB/s, PCIe Gen5: 128 GB/s |
| Opcje serwerowe | NVIDIA HGX H100, Partner i systemy certyfikowane przez NVIDIA z 4 lub 8 GPU | NVIDIA DGX H100 z 8 GPU, Partner i systemy certyfikowane przez NVIDIA z 1–8 GPU |
| Dodatki NVIDIA Enterprise | Wliczone | Wliczone |
| Uwagi | *Z użyciem sparsity | |
