Decyzja Nvidia o fundamentalnej zmianie architektury pamięci w swoich serwerach AI może wywołać bezprecedensowy szok cenowy w całym łańcuchu dostaw półprzewodników. Według najnowszych analiz Counterpoint Research, ceny pamięci serwerowych są na kursie do podwojenia się do końca 2026 roku. Źródłem tego zawirowania nie jest tym razem niedobór surowców, ale strategiczna reorientacja lidera rynku AI, który w poszukiwaniu efektywności energetycznej sięga po rozwiązania znane dotychczas z kieszeni konsumentów.
Gigant z Santa Clara rozpoczął proces zastępowania standardowych w branży enterprise modułów DDR5 układami LPDDR (Low-Power Double Data Rate). To technologia o niskim poborze mocy, stanowiąca dotąd domenę telefonów i tabletów. Ruch ten, podyktowany chęcią obniżenia gigantycznych kosztów zasilania serwerów sztucznej inteligencji, tworzy jednak problem skali. Pojedynczy serwer AI wymaga wielokrotnie więcej pamięci niż urządzenia mobilne, co sprawia, iż Nvidia staje się nagle klientem o wolumenie zakupowym porównywalnym z największymi producentami telefonów. Counterpoint określa to zjawisko mianem „sejsmicznej zmiany”, na którą łańcuch dostaw nie jest przygotowany.
Sytuacja stawia pod ścianą głównych producentów pamięci: Samsung Electronics, SK Hynix oraz Micron. Firmy te już teraz operują na granicy wydajności, przekierowując większość mocy przerobowych na wysokomarżową pamięć HBM (High Bandwidth Memory), niezbędną do zasilania akceleratorów graficznych. Nagły, masowy popyt na LPDDR ze strony sektora serwerowego grozi kanibalizacją linii produkcyjnych i destabilizacją rynku. Producenci, którzy niedawno ograniczyli podaż starszych typów pamięci, nie będą w stanie łatwo zaabsorbować tak dużej skali nowych zamówień bez drastycznych korekt cenowych.
Prognozy są bezlitosne dla odbiorców końcowych. Analitycy przewidują, iż ogólne ceny chipów pamięci wzrosną o 50 procent w stosunku do obecnych poziomów już do drugiego kwartału 2026 roku. Wyższe koszty komponentów uderzą bezpośrednio w dostawców chmury (hyperscalers) i deweloperów AI, wywierając dodatkową presję na budżety CAPEX centrów danych, które i tak są już historycznie napięte przez rekordowe wydatki na procesory graficzne i modernizację infrastruktury energetycznej.

3 godzin temu











