Nvidia Rubin: Nowa definicja ekonomii AI i koniec ery Blackwella

22 godzin temu
Zdjęcie: Nvidia rubin


Podczas targów CES Nvidia oficjalnie potwierdziła to, o czym w kuluarach mówiło się od miesięcy: era Blackwella ma już swojego następcę. Jensen Huang zaprezentował platformę Rubin, która ma zdefiniować infrastrukturę sztucznej inteligencji na drugą połowę 2026 roku.

Nowa architektura to nie tylko kolejny skok wydajnościowy, ale przede wszystkim wyraźny sygnał dla konkurencji, iż Nvidia zamierza utrzymać pozycję hegemona w centrach danych hyperscalerów.

Sercem nowego ekosystemu jest układ GPU Rubin, który w zadaniach wnioskowania (inference) ma oferować aż pięciokrotnie wyższą wydajność niż jego poprzednik. Układ wyposażono w 336 miliardów tranzystorów, co przekłada się na 50 petaflopów mocy obliczeniowej w formacie NVFP4.

W przypadku trenowania modeli AI wzrost jest nieco bardziej konserwatywny, choć wciąż imponujący – 35 petaflopów oznacza 2,5-krotne przyspieszenie względem architektury Blackwell.

Kluczową zmianą w strategii Nvidii jest jednak coraz ściślejsza integracja CPU i GPU. Rubinowi towarzyszy procesor centralny Vera, oparty na architekturze ARM i wyposażony w 88 autorskich rdzeni Olympus.

Połączenie tych dwóch układów tworzy superchip Vera Rubin, nazwany na cześć słynnej amerykańskiej astronomki. To tandem, który ma zastąpić popularne rozwiązanie Grace Hopper, oferując nową jakość komunikacji dzięki interkonektowi NVLink szóstej generacji.

Nvidia wyraźnie dąży do sprzedaży kompletnych systemów, a nie tylko komponentów. Sztandarowym produktem staje się Vera Rubin NVL72 – w pełni zintegrowana szafa serwerowa chłodzona cieczą, która łączy akceleratory, procesory oraz nowe układy sieciowe ConnectX-9 i BlueField-4 DPU w jeden spójny organizm AI-HPC.

Dla klientów preferujących architekturę x86 przygotowano mniejszy system DGX Rubin NVL8, parujący osiem procesorów graficznych Rubin z układami Intel Xeon 6.

Ekonomia tego rozwiązania ma przekonać największych graczy. Nvidia deklaruje, iż koszt per token wnioskowania spadnie dziesięciokrotnie w porównaniu do obecnej generacji. To najważniejszy argument dla OpenAI, Microsoftu, Google czy AWS, które już ustawiają się w kolejce po nowy sprzęt. Pierwsze systemy oparte na platformie Rubin mają trafić do partnerów w drugiej połowie bieżącego roku, a pełna dostępność chmurowa przewidywana jest na kolejne miesiące, cementując dominację Nvidii w erze generatywnej sztucznej inteligencji.

Idź do oryginalnego materiału