NVIDIA H200 pierwszym akceleratorem graficznym z pamięcią HBM3e. Nowy poziom wydajności w zastosowaniach AI

NVIDIA zapowiedziała swój najnowszy akcelerator graficzny – H200, bezpośredniego następcę H100, który jako pierwszy układ wykorzysta pamięć HBM3e. To prawdziwy game changer w świecie sztucznej inteligencji i wysokowydajnych obliczeń. Przyjrzyjmy się, co nowego wprowadzi.

NVIDIA H200. Co to jest i dlaczego ten akcelerator ma być tak wyjątkowy?

Akcelerator H200 to najnowsze osiągnięcie firmy NVIDIA, które opiera się na architekturze Hopper. To układ graficzny, ale skonstruowany jest on z myślą o wspomaganiu obliczeń związanych ze sztuczną inteligencją (AI). H200 wyróżnia się też jako pierwsze na świecie GPU z pamięcią HBM3e, co przełoży się na ogromny skok wydajności względem swojego poprzednika: NVIDIA H100.

cechy akceleratora nvidia h200

Co nowego przyniesie akcelerator NVIDIA H200?

NVIDIA wprowadziła szereg ulepszeń w nowym akceleratorze. Oto kluczowe cechy H200:

  • Nowa pamięć HBM3e: H200 zaoferuje 141 GB pamięci HBM3e, a więc prawie dwukrotnie więcej niż w NVIDIA A100. Przepustowość tej pamięci wyniesie kuriozalne 4,8 TB/s, co jest kluczowe dla szybkiego przetwarzania dużych ilości danych.
  • Nowy poziom wydajności: NVIDIA zapowiedziała, że H200 prawie podwaja prędkość wnioskowania w modelach językowych takich jak Llama 2 (przy wykorzystywaniu 70 miliardów parametrów) w porównaniu do H100. W przypadku wnioskowania w ramach modeli GPT-3 (175 miliardów parametrów) wzrost wydajności to 60% w stosunku do H100.
  • Szerokie zastosowanie: H200 będzie dostępny w różnych systemach. Mowa o stacjach roboczych NVIDIA HGX H200 (z 4 lub 8 układami), które wykorzystają m.in. Amazon Web Services, Microsoft Azure, Google Cloud czy Oracle Cloud Infrastructure, oraz w superchipie NVIDIA GH200 Grace Hopper, na który ma składać się układ graficzny H200 i CPU NVIDIA Grace z rdzeniami ARM Neoverse. To oznacza, że będzie mógł być wykorzystywany w różnego typu centrach danych.

Kiedy premiera NVIDIA H200?

Premiera H200 zaplanowana jest na drugi kwartał 2024 roku. To z pewnością będzie ważny moment dla branży AI i HPC (ang. High Performance Computing). NVIDIA już teraz zapowiada, że H200 będzie kluczowym elementem w nadchodzących superkomputerach, takich jak Jupiter. Ten ma składać się z niemal 24 tysięcy układów NVIDIA Grace GH200 i oferować wydajność na poziomie przeszło 90 eksaflopsów. Jego uruchomienie nastąpi w bliżej niesprecyzowanym okresie 2024 roku.

H200 zmieni zasady gry?

Zapowiada się prawdziwy przełom. Z jego pomocą możliwe będzie przetwarzanie danych na niespotykaną dotąd skalę. To ekscytujące czasy dla wszystkich, którzy interesują się sztuczną inteligencją i modelami językowymi, takimi jak Bing (Microsoft), GPT-3 i GPT-4 (OpenAI), Llama 2 (Meta AI) czy PaLM 2 (Google Bard).

Co po H200? Architektura Blackwell i układ B100

NVIDIA planuje już układy graficzne, które bazować mają na nowej architekturze – Blackwell, która ma napędzać także konsumenckie karty GeForce RTX 5000. Akcelerator NVIDIA B100 ma przynieść nawet (ponad) 2-krotny wzrost wydajności (w modelu GPT-3) w porównaniu do nowo zapowiedzianego H100, a przecież ten już przyniesie wręcz kosmiczny skok.

Firma nie była jeszcze gotowa ujawnić przybliżonego terminu wydania tej generacji, ale z oficjalnego slajdu wynika, że nastąpi to najwcześniej pod koniec 2024 roku. Akceleratory do zastosowań profesjonalnych poprzedzają zwykle debiut konsumenckich GPU z rodziny GeForce, a te oparte na architekturze Blackwell mają wyjść w 2025 roku.

Źródło: NVIDIA

Zobacz profesjonalne układy graficzne w ofercie x-komu