NVIDIA rozpocznie wdrażanie HBM3e w pierwszym kwartale 2024 r. Dzięki Hopper H200, HBM4 ma zadebiutować do 2026 r.
Wygląda na to, że branża HBM skupiła się wokół firmy NVIDIA, jak szacuje TrendForce, na którym zamówienia na sztuczną inteligencję firmy NVIDIA dominują w obecnych i nowej generacji dostawach HBM.
NVIDIA planuje zdominować rynki sztucznej inteligencji poprzez wykorzystanie pamięci HBM nowej generacji, dostawcy zaczynają skupiać się wokół Team Green
Według badań rynku NVIDIA jest gotowa przekazać znaczną część swoich zamówień HBM koreańskiemu gigantowi Samsungowi, ponieważ obie firmy zaczną budować powiązania biznesowe, które mogą okazać się kluczowe dla branży sztucznej inteligencji.
We zgłoszono już we wrześniu, że Samsungowi udało się zdobyć zaufanie Team Green, przechodząc wielokrotne kontrole kwalifikacyjne swoich produktów HBM i TrendForce ujawnia teraz, że Samsung może zakończyć proces do grudnia, a zamówienia zaczną napływać od początku przyszłego roku. Samsung może potencjalnie być odpowiedzialny za opiekę nad procesorami graficznymi AI obecnej generacji, takimi jak bardzo wymagające modele H100 i A100.
Dla krótkiego podsumowania: spodziewany jest debiut HBM3e w procesorach graficznych Blackwell AI firmy NVIDIA, które według plotek mają zostać wprowadzone na rynek w drugim kwartale 2024 r., a pod względem wydajności przyniesie on zdecydowany wzrost wydajności na wat dzięki przyjęciu projekt chipletu.
Przechodząc do ciekawostki, NVIDIA ma wiele planów dla swoich klientów na rok 2024, ponieważ firma ogłosiła już GPU H200 Hopper, który ma zostać masowo przyjęty w przyszłym roku, po czym wprowadzone zostaną procesory graficzne B100 „Blackwell”AI, oba oparte na na technologii pamięci HBM3e.
Oprócz konwencjonalnej ścieżki, NVIDIA podobno zaprezentuje procesory oparte na architekturze ARM dla segmentu sztucznej inteligencji, co zapewni dywersyfikację na rynku rynkach, wraz ze wzrostem konkurencji. Oczekuje się, że Intel i AMD wprowadzą także swoje rozwiązania AI, przy czym godne uwagi będą procesory graficzne AMD Instinct nowej generacji oraz Akceleratory Intel Gaudi AI wyposażone w pamięć HBM3e.
Na koniec TrendForce podsumowuje, czego możemy się spodziewać po HBM4, zwłaszcza biorąc pod uwagę fakt, że nadchodzący standard pamięci zostanie całkowicie odnowiony< a i=2> pod względem konfiguracji wbudowanych układów scalonych, ponieważ krążą pogłoski, że podstawowa kość logiczna będzie po raz pierwszy wyposażona w płytkę procesową wykonaną w procesie 12 nm i będzie działać jako sterownik pamięci DRAM/GPU w pakiecie 3D, tworząc środowisko współpracy między odlewniami i dostawców pamięci. Oczekuje się, że HBM4 wyznaczy przejście na następną generację mocy obliczeniowej i może okazać się kluczem do przyszłych przełomów w branży sztucznej inteligencji.
Źródło wiadomości: TrendForce
Dodaj komentarz