Na konferencji Nvidia GTC 16 marca 2026 r. dyrektor generalny Jensen Huang stwierdził, iż „punkt zwrotny w inferencji już nastąpił” i podniósł szacunki potencjalnych przychodów z układów AI: z wcześniej komunikowanych 500 mld USD w 2026 r. do co najmniej 1 bln USD w 2027 r. Mówiąc prościej, branża przechodzi od budowy modeli AI do ich masowego i ciągłego wykorzystania.
najważniejsze wnioski
- Najnowsze sygnały z Nvidii sugerują, iż popyt w obszarze AI przesuwa się z trenowania modeli w kierunku ich ciągłego działania w czasie rzeczywistym.
- Ten zwrot czyni pamięć bardziej strategicznym elementem, ponieważ uruchamianie modeli wymaga wysokiej szybkości dostępu, dużej przepustowości i wysokiej efektywności energetycznej, a nie tylko surowej mocy obliczeniowej.
- Wyniki Microna są istotnym barometrem szerszego cyklu na rynku pamięci — to nie tylko kwestia jednej spółki.
Mózg wciąż ma znaczenie, ale pamięć to krwiobieg
Trenowanie modelu AI jest kosztowne i spektakularne, dlatego często przyciąga najwięcej uwagi. Inferencja jest mniej widowiskowa, ale często bardziej dochodowa. To moment, gdy miliony użytkowników zlecają modelowi wyszukiwanie, streszczanie, pisanie kodu, przygotowywanie rekomendacji czy wykonywanie zadań. najważniejsze stają się wtedy niskie opóźnienia, wysoka przepustowość i wysoka efektywność energetyczna. To nie tylko kwestia mocy obliczeniowej, ale także pamięci.
HBM (highbandwidth memory) — pamięć o wysokiej przepustowości) to w tym kontekście produkt klasy premium. Znajduje się tuż przy procesorze i bardzo gwałtownie „karmi” go danymi. jeżeli procesor to silnik, HBM jest przewodem paliwowym. A wielki silnik bez odpowiedniego dopływu paliwa to tylko kosztowna rzeźba.
Dlatego komunikat Microna z tego tygodnia ma znaczenie. 16 marca 2026 r. spółka ogłosiła, iż jej układ HBM4 o pojemności 36 GB wszedł do produkcji na dużą skalę na potrzeby platformy Vera Rubin firmy Nvidii, zapewniając przepustowość przekraczającą 2,8 TB/s oraz o 20% wyższą efektywność energetyczną. Micron podkreślił także nowy moduł pamięci, który — według firmy — skraca „time to first token” (czas do pierwszego tokenu) przy inferencji dużych modeli językowych z długim kontekstem 2,3 raza. W żargonie branżowym oznacza to jedno: odpowiedzi pojawiają się szybciej.
Warto wspomnieć również o Samsungu. Na GTC zaprezentował układ inferencyjny Groq LP30, wytwarzany w 4nanometrowym procesie Samsunga. To ważne, bo pokazuje, iż rynek pamięci i sprzętu AI nie ogranicza się do samego Microna. Samsung również gwałtownie posuwa się naprzód w segmencie zaawansowanych pamięci: wysyłki HBM4 już się rozpoczęły, a próbki HBM4E zapowiedziano na późniejszą część 2026 r. Innymi słowy, inferencja nie faworyzuje wyłącznie jednej firmy z branży pamięci. Podnosi strategiczną wartość całego segmentu pamięci z najwyższej półki.
Dlaczego wyniki Microna mają znaczenie wykraczające poza samą spółkę
Wyniki Microna z 18 marca 2026 r. to nie tylko sprawa jednej spółki — to barometr całego rynku pamięci. Branża ta od lat jest cykliczna, zmienna i podatna na wahania koniunktury. W jednym roku przypomina rynek surowcowy w bessie, w kolejnym — licencję na drukowanie pieniędzy. Różnica tym razem polega na tym, iż AI może sprawić, iż niektóre kategorie pamięci przestaną być postrzegane jako „zwykły towar”.
Micron, Samsung i SK Hynix mają dziś trudności z nadążaniem za popytem napędzanym przez AI, a firma Applied Materials nawiązała współpracę z Micronem i SK Hynixem w zakresie rozwoju kolejnych generacji pamięci DRAM (pamięci operacyjnej) oraz HBM. Samsung mówi o „bezprecedensowym supercyklu” na rynku chipów: niedobory pamięci przez cały czas utrzymują wysoki popyt, choćby jeżeli wyższe ceny zaczynają ciążyć na rynkach komputerów osobistych i telefonów.

To istotna różnica dla inwestorów: nie każda pamięć jest taka sama. Tradycyjna pamięć do komputerów osobistych i telefonów wciąż może zachowywać się podobnie jak w dawnych cyklach koniunkturalnych. Natomiast HBM oraz pamięci dla centrów danych obsługujących AI mają bardziej „strukturalny” charakter — są powiązane z premierami nowych platform, złożonością zaawansowanego obudowywania układów, ograniczeniami energetycznymi oraz wąską grupą wiarygodnych dostawców. To zwykle sprzyja marżom.
Potwierdzają to najnowsze działania Microna. Wraz z ogłoszeniem pamięci HBM4 spółka sfinalizowała przejęcie zakładu na Tajwanie i zapowiedziała budowę kolejnego cleanroomu do końca roku fiskalnego 2026. Na początku roku rozpoczęła także budowę nowej fabryki wafli krzemowych w Singapurze, zaprojektowanej z myślą o długoterminowym popycie napędzanym przez AI. To nie eliminuje cykliczności, ale pokazuje, iż zarząd działa tak, jakby popyt nie był modą na jeden kwartał.
Haczyk polega na tym, iż w branży pamięci nic nie pozostaje proste na długo
Są jednak pewne rysy na tym półprzewodnikowym obrazie:
- Po pierwsze, wyceny w dużej mierze odzwierciedlają już optymizm. Kurs Microna wyraźnie wzrósł przed publikacją wyników, więc same dobre liczby mogą nie wystarczyć. Inwestorzy będą oczekiwać dowodów, iż miks produktowy z większym udziałem HBM, poziom cen i marże wciąż mają pole do poprawy.
- Po drugie, podaż w końcu reaguje. Niedobory pamięci są korzystne, dopóki nie skłaniają do rozbudowy mocy. Micron, Samsung i SK Hynix zwiększają lub przygotowują dodatkowe moce produkcyjne na potrzeby kolejnych generacji. To dobre w długim terminie, ale mniej korzystne, jeżeli wszyscy uruchomią nowe moce jednocześnie i zaleją rynek.
- Po trzecie, inferencja nie oznacza monopolu. Nvidia przez cały czas dominuje, ale konkurencja rośnie — ze strony klasycznych procesorów oraz układów projektowanych na zamówienie przez firmy takie jak Google. jeżeli więcej zadań przeniesie się na alternatywne architektury, wygranymi na rynku pamięci mogą być firmy z najszerszym portfolio i najbliższymi relacjami z klientami, a nie te z najbardziej efektownym przebiegiem kursu akcji.
Podręcznik inwestora
- Zwracaj uwagę na komentarze Microna dotyczące miksu produktowego (udziału HBM), cen oraz dyscypliny po stronie podaży — nie patrz wyłącznie na przychody.
- Oddzielaj pamięć do zastosowań AI od pamięci konsumenckiej. Mogą należeć do tego samego sektora, ale nie zawsze poruszają się z tych samych powodów.
- Śledź premiery platform firmy Nvidii i obciążenia inferencyjne — to dobre wskaźniki popytu na pamięć z najwyższej półki.
- Traktuj to jako infrastrukturę, nie modę. Na wąskich gardłach zarabia się częściej niż na modnych hasłach.
Cichy punkt poboru opłat w wyścigu AI
Najciekawsza część historii o AI dotyczy już nie tylko tego, kto trenuje najmądrzejszy model. Chodzi o to, kto pomaga temu modelowi udzielać odpowiedzi miliardy razy bez spowalniania, przegrzewania i utraty opłacalności. Najnowsze sygnały z Nvidii wyraźnie wskazują na inferencję, a ta wymaga pamięci szybszej, pojemniejszej i bardziej energooszczędnej. Dlatego raport Microna z 18 marca 2026 r. to coś więcej niż publikacja wyników. To test, czy producenci pamięci wciąż są tylko pasażerami cyklu koniunkturalnego, czy też stają się poborcami opłat na najbardziej ruchliwych drogach AI. W tej fazie rozbudowy AI układ gwiazda przez cały czas trafia do nagłówków, ale to układ pamięci może po cichu przesądzać o tym, kto naprawdę zarobi.
Autor: Ruben Dalfovo, Strateg inwestycyjny Saxo Bank

1 godzina temu






