Big Tech ma problem z AI. Brakuje chipów i czasu!

2 godzin temu

Sztuczna inteligencja potrzebuje dziś trzech rzeczy: ogromnej mocy obliczeniowej, taniej i stabilnej energii oraz czasu. I właśnie czasu zaczyna najbardziej brakować. Popyt na AI wystrzelił szybciej niż da się fizycznie zbudować centra danych, przyłącza energetyczne i infrastrukturę pod GPU.

W tę lukę weszły neocloudy. Spółki, które w kilka miesięcy potrafiły dać inwestorom setki procent zysku, bo oferują dokładnie to, czego rynek potrzebuje tu i teraz: moc obliczeniową bez czekania trzech lat w kolejce u Big Techu.

Tylko iż pojawia się najważniejsze pytanie. Czy neocloudy to trwały element ekosystemu AI, czy tylko tymczasowy most, który zniknie, gdy Amazon, Microsoft i Google nadrobią zaległości infrastrukturalne?

Bo jeżeli to most, to dzisiejsze wyceny mają datę ważności, ale jeżeli to trwały węzeł systemu, to mówimy o zupełnie innej historii inwestycyjnej.

W tym materiale rozbieram neocloudy na czynniki pierwsze i szukam odpowiedzi na pytanie, gdzie naprawdę zarabiają, gdzie są największe ryzyka i kto na końcu tej układanki ma przewagę.

Big Tech ma problem z AI. Brakuje chipów i czasu!

Załóż konto na Freedom24 i odbierz choćby 20 darmowych akcji o wartości choćby kilkaset dolarów każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_broker

Czym są neocloudy i czym różnią się od klasycznej chmury

Żeby w ogóle rozmawiać o neocloudach, trzeba najpierw uporządkować podstawy.

Klasyczna chmura to w uproszczeniu wynajem infrastruktury IT. Zamiast kupować własne serwery, budować serwerownię, martwić się o prąd, chłodzenie i administrację, po prostu płacisz za dostęp do cudzych zasobów. Tyle i aż tyle. Dla firmy, szczególnie mniejszej to ogromna wygoda, elastyczność i przede wszystkim brak ogromnych inwestycji na własną infrastrukturę.

Neocloud to zupełnie inna konstrukcja, choć na pierwszy rzut oka wygląda podobnie. To przez cały czas wynajem, ale infrastruktura jest projektowana od zera pod jeden bardzo konkretny cel: obliczenia związane ze sztuczną inteligencją. Nie uniwersalne serwery pod wszystko, tylko wyspecjalizowane klastry GPU z myślą o zastosowaniach w obszarze sztucznej inteligencji.

Klienci tych firm mogą wynajmować moce obliczeniowe należące do neocloudów na potrzeby trenowania modeli oraz wnioskowania. Czym to się różni?

Trenowanie modeli to moment, w którym algorytm uczy się na gigantycznych zbiorach danych. Ten etap pochłania absurdalne ilości mocy obliczeniowej, trwa długo i wymaga najnowocześniejszego sprzętu. To właśnie tutaj liczy się dostęp do dużych, spójnych klastrów GPU, szybkie połączenia między nimi i stabilna energia.

Drugi etap to wnioskowanie, czyli używanie już wytrenowanego modelu. To jest ta część, którą widzisz jako użytkownik: zapytanie, odpowiedź, rekomendacja, analiza obrazu. Wnioskowanie też kosztuje, ale skala i charakter obciążeń są inne. Często liczy się niskie opóźnienie i dostępność, a nie maksymalna moc w jednym momencie.

Dlaczego neocloudy w ogóle powstały

Neocloudy nie powstały dlatego, iż ktoś wpadł na sprytny pomysł biznesowy i dorobił do niego narrację o AI. One powstały z bardzo prostej przyczyny. Popyt wystrzelił szybciej, niż dało się fizycznie dostarczyć infrastrukturę.

Rynek AI w pewnym momencie uderzył w twardą ścianę. Zapotrzebowanie na moc obliczeniową rosło i dalej rośnie w absurdalnym tempie, co widać po wynikach Nvidii oraz po wydatkach inwestycyjnych Big Techów.

Tymczasem infrastruktura okazała się wąskim gardłem. GPU nie są problemem samym w sobie. Problemem jest to, gdzie je postawić, czym zasilić i jak odprowadzić ciepło, które produkują.

Klasyczne centra danych były projektowane pod zupełnie inny świat. Pod serwery CPU, niższą gęstość mocy i bardziej przewidywalne obciążenia. Tymczasem klastry GPU to potężna koncentracja energii na bardzo małej powierzchni. Szafy serwerowe zużywają wielokrotnie więcej prądu, generują ekstremalne ilości ciepła i wymagają zupełnie innej architektury chłodzenia, coraz częściej nie powietrzem, tylko cieczą.

Do tego dochodzi energia. Można mieć pieniądze, sprzęt i działkę, ale jeżeli nie ma przyłącza o odpowiedniej mocy, to pozostaje pusty budynek. Proces uzyskania takich przyłączy potrafi się ciągnąć, a sieci energetyczne w wielu regionach nie są gotowe na taką koncentrację poboru mocy.

I jeszcze czas. Budowa nowoczesnego centrum danych pod AI to nie jest projekt na kwartał. Od decyzji inwestycyjnej, przez pozwolenia, projekt, budowę i uruchomienie, mijają często lata. A popyt na AI nie czeka.

Neocloudy wypełniły tę lukę. Zaczęły budować albo adaptować infrastrukturę dokładnie pod ten problem: wysoką gęstość mocy, agresywne chłodzenie, gotowe przyłącza energetyczne i możliwie najszybszy czas uruchomienia.

Pomimo szybkiego tempa rozwoju neocloudy odpowiadają dziś za zaledwie około 3% globalnego rynku chmurowego. Dominującą pozycję utrzymują natomiast trzej hyperscalerzy: Amazon (AWS), Microsoft (Azure) oraz Google (Google Cloud). Jednak najważniejsze jest to, iż nie wszystkie centra danych tych rynkowych liderów były stawiane z myślą o trenowaniu modeli AI. choćby zdecydowana większość z nich nie była stawiana z myślą o tym.

To właśnie dlatego ten segment w ogóle się pojawił. Jako odpowiedź na fizyczne ograniczenia świata, w którym AI przestało być eksperymentem, a zaczęło być przemysłową skalą obliczeń.

Dołącz do nas na Twitterze oraz YouTube i bądź na bieżąco!

Model biznesowy neocloudów: gdzie są przychody i koszty

Jeśli jednak zdjąć z neocloudów całą narrację o rewolucji AI, zostaje dość surowy biznes infrastrukturalny. I właśnie dlatego trzeba go rozłożyć na części pierwsze.

Zacznijmy od tego, co neocloud faktycznie sprzedaje. Podstawowym produktem są godziny pracy GPU. Klient płaci za dostęp do konkretnej mocy obliczeniowej przez określony czas. Czasem jest to czysty wynajem sprzętu, czasem gotowe środowisko pod trenowanie modeli, a czasem pakiet z dodatkowymi narzędziami do zarządzania zadaniami, danymi czy orkiestracją obliczeń. Ale rdzeń pozostaje ten sam. Dostęp do GPU, czyli odpowiednich układów scalonych.

Druga sprawa to sposób sprzedaży. I tu pojawiają się dwa zupełnie różne modele. Pierwszy to wynajem na żądanie. Wchodzisz, rezerwujesz zasoby, płacisz za godzinę i wychodzisz. Elastyczne, szybkie, ale bardzo wrażliwe na wahania popytu. Drugi model to dłuższe kontrakty. Klient zobowiązuje się na miesiące albo lata, często rezerwując konkretną liczbę GPU. Dla neocloudu to większa przewidywalność przychodów, dla klienta niższa stawka. Różnica między tymi dwoma podejściami ma ogromny wpływ na stabilność wyników finansowych.

Teraz przechodzimy do kosztów, bo to tutaj najczęściej pojawia się pierwsza rysa. Po pierwsze kolokacja, czyli koszt fizycznego utrzymania sprzętu w centrach danych. Po drugie energia, która przy klastrach GPU staje się jednym z głównych składników kosztowych. Po trzecie finansowanie sprzętu. GPU są drogie, a często kupowane na kredyt albo leasing, co oznacza stałe obciążenie finansowe. I wreszcie starzenie się sprzętu. Nowa generacja GPU potrafi sprawić, iż wczorajszy topowy klaster zaczyna być sprzedawany z rabatem, bo klienci chcą tego najnowszego.

Na końcu zostaje to, co faktycznie generuje wynik finansowy. Po pierwsze wykorzystanie mocy. Puste GPU nie zarabiają. Po drugie stawka, jaką da się utrzymać na godzinę obliczeń, co zależy od podaży na rynku i siły negocjacyjnej klientów. Po trzecie miks kontraktów. Im więcej długoterminowych umów, tym mniejsza zmienność, ale często kosztem niższej ceny jednostkowej. I po czwarte koszt kapitału, bo to on decyduje, ile spółka będzie płacić za kupiony na kredyt sprzęt.

W efekcie neocloudy nie wygrywają tym, iż są powiązane z AI. Wygrywają albo przegrywają bardzo klasycznymi zmiennymi: stopniem wykorzystania mocy, siłą negocjacyjną, kontraktami i kosztem kapitału. Cała reszta to tylko opakowanie.

Tu możemy dojść do wniosku, iż neocloudy to w sumie „prosty” i dość staromodny biznes, gdzie tak naprawdę liczy się sprawność operacyjna, siła negocjacyjna, czy warunki rynkowe, a nie przewaga technologiczna w zakresie sztucznej inteligencji i technologiczne know-how.

Mimo wszystko wzrost tego sektora jest napędzany nowymi technologiami i dlatego zgodnie z prognozami, rynek dostarczania układów scalonych GPU jako usługi ma rosnąć przez kolejną dekadę w tempie około 27% rocznie!

Tylko znów trzeba się zastanowić, dlaczego ten rynek tak rośnie? W końcu hyperscalerzy, tacy jak Amazon, mają wszystko, czego neocloudom brakuje. Platformy, ekosystemy, miliony klientów, sprzedaż, dystrybucję i zdolność pakowania mocy obliczeniowej w gotowe usługi i produkty. Ale jest jedna rzecz, której choćby oni nie potrafią wyczarować z dnia na dzień: czas. Przyłącza energetyczne, pozwolenia, budowa i uruchomienie infrastruktury pod najnowsze GPU zajmują lata, niezależnie od skali firmy.

I tu wchodzą neocloudy. Nie jako konkurencja dla Amazona czy Googla, tylko jako bufor podaży. Dostarczają moc obliczeniową tam, gdzie zapotrzebowanie jest tu i teraz, a infrastruktura hyperscalerów jeszcze nie nadążyła. Dla klientów oznacza to możliwość trenowania modeli bez czekania w kolejce. Dla gigantów oznacza to wentyl bezpieczeństwa, który zmniejsza presję na własne zasoby. Sami giganci często korzystają z usług neocloudów, żeby uzupełnić brakujące im moce obliczeniowe.

Jednak w tym miejscu cała gra inwestycyjna sprowadza się do jednego pytania. Jak długo potrwa ta luka? jeżeli rozbudowa infrastruktury przez gigantów będzie wolniejsza niż rosnący popyt, neocloudy mogą stać się trwałym elementem ekosystemu. jeżeli jednak hyperscalerzy nadrobią zaległości, postawią własne centra danych i zapewnią podaż GPU na masową skalę, rola neocloudów może się skurczyć do niszowych zastosowań. Dlatego to nie jest zakład na to, czy neocloudy są potrzebne dziś. One są potrzebne. To jest zakład na to, czy za kilka lat przez cały czas będą potrzebne w tej samej skali.

Trzy typy neocloudów i przykłady spółek

Zanim spróbujemy odpowiedzieć na to pytanie, pochylmy się jeszcze nad ryzykami.

Neocloudy można dość czytelnie podzielić na trzy typy, które różnią się nie tylko modelem biznesowym, ale też profilem ryzyka.

Pierwszy to czysty neocloud. Spółka, której core biznesu to dostarczanie mocy GPU i środowisk pod AI. Bez wielkich pobocznych narracji. Kupują lub finansują sprzęt, stawiają klastry i sprzedają godziny obliczeń klientom. Przewaga, jeżeli w ogóle się pojawia, wynika z szybkości uruchamiania mocy, relacji z dostawcami sprzętu i umiejętności utrzymania wysokiego wykorzystania GPU. Problem jest oczywisty. To biznes bardzo bliski komodytyzacji, w którym presja cenowa potrafi być bezlitosna.

Dla wyjaśnienia: komodytyzacja to proces, w którym produkt przestaje się realnie różnić od konkurencji i zaczyna być traktowany jak towar masowy.

Drugi to neocloud z warstwą software i dodatkowymi projektami. Tutaj sama moc obliczeniowa nie jest jedynym produktem. Spółka próbuje dokleić oprogramowanie do zarządzania obliczeniami, narzędzia dla zespołów AI, platformy do trenowania modeli albo inne usługi, które zwiększają przywiązanie klienta. Czasem obok neocloudu funkcjonują jeszcze zupełnie inne segmenty biznesu. Taki miks może poprawiać marże i zmniejszać ryzyko czystej wojny cenowej.

Trzeci to pivot z innej branży. Najczęściej są to kopalnie kryptowalut, które dokonują tranformacji swoich aktywów, żeby móc je wykorzystać do trenowania modeli AI zamiast do wydobywania Bitcoina. Takie firmy mają przyłącza, działki, budynki, czasem tanią energię. Dzięki temu mogą szybciej wejść w neocloud niż start-up budujący wszystko od zera. Z drugiej strony AI nie zawsze jest tu głównym motorem strategii, tylko jednym z kierunków rozwoju, co zmienia dynamikę takiej inwestycji.

Możemy pójść krok dalej. Spójrzmy na trzy spółki, które dobrze pokazują, jak różne mogą być modele w tej samej etykietce. To są trzy różne zwierzęta w tym samym zoo.

CoreWeave to najbardziej klasyczny przykład neocloudu w wersji na sterydach. Firma skupia się na dostarczaniu dużej mocy GPU i dokłada do tego własną warstwę software, czyli narzędzia, które ułatwiają klientom uruchamianie i skalowanie obliczeń. Działa głównie w USA, ale ma też obecność w Europie, a jej skala jest największa w tej trójce. Mówimy o 41 centrach danych i niemal 600 MW dostępnej mocy.

Najgłośniejszym newsem jest relacja z OpenAI: kontrakt pięcioletni ogłoszony w marcu 2025 roku na niecałe 12 mld USD, a potem kolejne rozszerzenia w 2025 r., które łącznie podniosły wartość tej serii umów do około 22,4 mld USD. W liczbach operacyjnych też to widać: w pierwszych dziewięciu miesiącach 2025 roku przychody wyniosły około 3,5 mld USD, co oznacza wzrost o 205% rok do roku. Jako ciekawostka rynkowa, na początku stycznia 2026 roku kurs był około 100% wyżej niż na debiucie w marcu 2025 roku.

Druga spółka, czyli Nebius, rozwija centra danych w USA i Europie, a flota GPU jest na poziomie kilkudziesięciu tysięcy. Istotny kontekst, który część inwestorów analizuje osobno, to powiązania części założycieli i kadry z Yandexem, czyli rosyjskim Googlem.

Nebius ma też inne aktywności w grupie, na przykład Avride w obszarze autonomicznej mobilności, więc to nie jest czyste GPU i koniec. jeżeli chodzi o to, co napędza oczekiwania, mocno wybija się kontrakt z Microsoftem z września 2025 roku: umowa pięcioletnia na 17,4 mld USD, z opcją wzrostu do 19,4 mld USD, jeżeli Microsoft dobierze dodatkowe usługi. Nebius komunikuje też ambicję bardzo mocnego wzrostu powtarzalnych przychodów, celując na koniec 2026 r. w okolice 7 do 9 mld USD ARR, gdzie ta umowa ma być jednym z kluczowych motorów. W ujęciu rynkowym, na początku stycznia 2026 roku spółka była około 174% wyżej niż rok temu!

Z notowanych na giełdzie firm, mamy jeszcze IREN. Jest to zupełnie inna historia, bo to pivot. Firma wywodzi się z wydobycia bitcoina i dopiero niedawno zaczęła skręt w stronę AI. Jej przewaga startowa nie wynika z najlepszej platformy chmurowej, tylko z tego, iż miała już zaplecze infrastrukturalne i energetyczne, które można wykorzystać pod obliczenia. Skala GPU jest tu najmniejsza z tej trójki, mowa o kilku do kilkunastu tysięcy jednostek. IREN ma australijskie korzenie, a centra danych w Kanadzie i USA.

Charakterystyczne jest podejście produktowe: firma podkreśla model „bare metal”, czyli dostarczanie zasobów bez narzucania własnej warstwy oprogramowania, argumentując to tym, iż jej klienci to duże firmy, które wolą budować własny stos technologiczny. W oczekiwaniach rynku istotny jest kontrakt z Microsoftem z listopada 2025 roku: około 9,7 mld USD na 5 lat, z 20% przedpłatą i wdrożeniami etapowanymi przez 2026 rok, komunikowanymi jako dostęp do GPU klasy NVIDIA GB300. Jednocześnie trzeba pamiętać o strukturze biznesu: w momencie, gdy rynek zaczął wyceniać AI, przychody IREN w dużej mierze pochodziły jeszcze z działalności bitcoinowej, a segment chmurowy miał być dopiero gwałtownie skalowany. Kursowo ta spółka urosła o szalone 340% w zaledwie rok, co pokazuje, jak mocno rynek potrafi nagradzać „pivot” w środku boomu na AI.

Te trzy przykłady robią jedną istotną rzecz: pokazują, iż „neocloud” to nie jeden biznes, ale różne podejście do tej samej kwestii. Najważniejsze z perspektywy inwestora jest jednak to, iż w otoczeniu niedoborów mocy obliczeniowej wszystkie te spółki zaliczają szalony wzrost na przychodach. W 2025 roku ten wzrost sięgnął od 205% w przypadku CoreWeave, aż do 452% w przypadku Nebiusa. To pokazuje, dlaczego inwestorzy rzucili się na te akcje.

NVIDIA i strategiczna rola neocloudów

Omówiliśmy sobie po krótce kilka kluczowych firm z sektora, ale nie można w dzisiejszych czasach rozmawiać o AI, bez wspominania o Nvidii.

Teraz spróbujmy spojrzeć na całą układankę oczami NVIDII.

NVIDIA sprzedaje sprzęt GPU, czyli to, czym neocloudy wypełniają swoje centra danych. Jej biznes polega na tym, żeby jak najwięcej GPU trafiło do pracy i żeby klienci kupowali kolejne generacje, zanim poprzednie zdążą się zestarzeć. Z tego punktu widzenia idealny świat NVIDII to nie taki, w którym całą moc obliczeniową świata kontroluje kilku gigantów, tylko taki, w którym GPU kupuje jak najszersza grupa podmiotów.

Dlaczego? Bo koncentracja klientów zawsze wzmacnia pozycję negocjacyjną kupującego. jeżeli większość popytu skupia się w rękach kilku hyperscalerów, to oni zaczynają dyktować warunki: ceny, terminy dostaw, priorytety produkcyjne. Dla producenta sprzętu to ryzykowna sytuacja. Duży klient jest wygodny, ale też niebezpieczny, bo potrafi mocno naciskać.

Neocloudy rozwiązują trochę ten problem. Dla NVIDII są sposobem na rozproszenie popytu. Zamiast sprzedawać wszystko kilku platformom, sprzedaje GPU wielu mniejszym graczom, którzy potem sami dystrybuują moc obliczeniową dalej. To zmniejsza zależność od pojedynczych klientów i stabilizuje cały ekosystem.

Dlatego to nie jest przypadek, iż NVIDIA nie tylko sprzedaje GPU neocloudom, ale też ma udziały kapitałowe w części z nich. NVIDIA jest udziałowcem m.in. CoreWeave i Nebiusa.

To bardzo czytelny sygnał strategiczny. NVIDIA nie traktuje neocloudów jak tymczasowych klientów, tylko jak element infrastruktury, który warto wspierać również kapitałowo.

Z punktu widzenia NVIDII neocloud to coś więcej niż kolejny odbiorca sprzętu. To partner, który:

• przyspiesza wdrażanie nowych generacji GPU,
• zwiększa dostępność mocy obliczeniowej na rynku,
• i dociera do klientów, do których NVIDIA sama by nie dotarła.

Neocloudy skracają drogę od fabryki do realnych obliczeń. Dla rynku oznacza to większą dostępność AI. Dla NVIDII oznacza to większą sprzedaż tu i teraz, mniejszą koncentrację ryzyka i większą kontrolę nad tempem rozwoju całego ekosystemu.

Krótko mówiąc: NVIDIA nie wspiera neocloudów z sympatii do start-upów. Wspiera je, bo pomagają jej sprzedawać więcej „kilofów” w czasie gorączki złota i robić to na własnych warunkach. jeżeli GPU jest kilofem, to centra danych są kopalniami. Jasne jest, iż im więcej kopalni, tym lepiej dla producenta kilofów.

Polub nas na Facebook!

Znajdziesz tam więcej wartościowych treści o inwestowani, giełdzie i rynkach.

Największe ryzyka inwestycyjne neocloudów

Ostatecznie neocloudy wyglądają atrakcyjnie wtedy, gdy patrzy się na rosnący popyt na AI i wykresy przychodów. Ale pod spodem jest zestaw ryzyk, które potrafią bardzo gwałtownie zmienić narrację z nowych liderów infrastruktury w biznes pod silną presją. I te ryzyka warto zebrać w jednym miejscu. Ponieważ teraz materializuje się scenariusz optymistyczny, ale każdy poważny inwestor powinien się zastanowić, jak duże jest ryzyko realizacji scenariusza negatywnego. Im więcej ryzyk w biznesie, tym większa na to szansa. O jednym już wspomniałem wcześniej, czyli o tym, czy neocloudy będą w stanie zadomowić się w całym ekosystemie, w sytuacji, kiedy niedobory ze strony gigantów się skończą, ale to nie wszystko.

Pierwsze ryzyko to brak trwałej przewagi, brak tej Buffetowej fosy. jeżeli neocloud sprzedaje głównie dostęp do GPU, a jego oferta kilka różni się od konkurencji, usługa zaczyna się komodytyzować, czyli przypomina makaron na półce w sklepie. Nic go nie wyróżnia. W takim świecie wygrywa nie ten, kto ma najlepsze know-how, historię o AI, tylko ten, kto ma najniższy koszt i najwyższe wykorzystanie mocy. Gdy podaż zacznie rosnąć szybciej niż popyt, ceny godzin GPU spadną, a marże mogą się boleśnie skurczyć.

Zresztą przypominam, jak gwałtownie Nvidia wprowadza nowe układy scalone na rynek. Jeszcze niedawno wszyscy żyli Blackwellem, a dziś już słuchamy o układach Rubin. Kiedy spojrzymy na ceny wynajmu poprzedniego hitowego układu, czyli Hopper H100, widać, iż te ceny potrafią spadać i to dość szybko.

Drugie ryzyko to struktura kosztowa i uzależnienie od kolokacji. Wiele neocloudów nie posiada własnych centrów danych, tylko wynajmuje miejsce w cudzej infrastrukturze. To oznacza duże stałe koszty, ograniczoną elastyczność i ekspozycję na wzrost cen energii oraz usług data center. jeżeli przychody nie rosną zgodnie z planem albo wykorzystanie GPU spada, to i tak koszty zostają. I to one zaczynają decydować o wyniku.

Trzecia rzecz to koncentracja klientów. Wcześniej mówiłem o dużych kontraktach z OpenAI czy Microsoftem. Duże kontrakty robią wrażenie w prezentacjach, ale z punktu widzenia ryzyka oznaczają zależność od kilku podmiotów. Gdy jeden klient odpowiada za znaczącą część przychodów, każda renegocjacja stawki, opóźnienie wdrożenia albo zmiana strategii klienta uderza bezpośrednio w wyniki neocloudu. A im większy klient, tym większa jest jego siła negocjacyjna.

W przypadku CoreWeave w pierwszych trzech kwartałach 2025 roku dominujący klient odpowiadał tam za aż 70% sprzedaży, co stanowi wyraźny wzrost względem 58% odnotowanych w analogicznym okresie 2024 roku.

Podobne tendencje obserwujemy u innych graczy. W przypadku IREN kontrakt zawarty w listopadzie 2025 roku implikuje, iż na koniec 2026 roku Microsoft będzie generował około 57% powtarzalnych rocznych przychodów (ARR). Z kolei w Nebiusie nowa umowa wrześniowa wskazuje na rosnącą zależność od giganta z Redmond. Jego udział w szacowanym powtarzalnym rocznym przychodzie na koniec 2026 roku może wynieść około 43%.

Czwarty element to cykl życia GPU. Sprzęt, który dziś jest topowy, za dwa lata może być „poprzednią generacją”. Nowe GPU oferują lepszą wydajność i niższy koszt jednostkowy obliczeń, więc klienci naturalnie chcą z nich korzystać. To oznacza presję cenową na starsze klastry i ryzyko, iż część inwestycji trzeba będzie monetyzować po gorszych stawkach, niż zakładano na starcie. Co więcej, może się okazać, iż postęp technologiczny w tym zakresie będzie tak duży, iż GPU w centrach danych trzeba będzie wymieniać częściej, niż zakładano, a to przełoży się bezpośrednio na koszty amortyzacji i niezbędne inwestycje.

To ryzyko naturalnie łączy się ze zwrotem z inwestycji w GPU. Czołowi dostawcy mocy obliczeniowej, tacy jak CoreWeave i Nebius, szacują okres zwrotu z inwestycji (cash payback) w układy GPU na 2,5–3,0 lata. Najbardziej transparentna spółka IREN początkowo wskazywała na 2-letni zwrot z samych jednostek, jednak po zawarciu 5-letniego kontraktu z Microsoftem horyzont ten wydłużył się do 3 lat dla GPU oraz 5 lat dla całego pakietu z infrastrukturą data center. Tymczasem już dziś pojawiają się komentarze analityków, którzy oceniają, iż układy scalone pod AI przy obecnym tempie rozwoju trzeba będzie wymieniać co około 4 lata.

Ekonomia tych inwestycji opiera się na wysokich stawkach jednostkowych. Na przykład IREN zakupił 76 tys. układów GB300 za łączną kwotę 5,8 mld USD, co daje około 76 tys. USD za sztukę. Przy obecnych stawkach i konserwatywnym założeniu 50% wykorzystania, roczny przychód z jednej karty wynosi 24–38 tys. USD. Pozwala to na osiągnięcie lewarowanego IRR w szerokim przedziale od 10% do choćby 50%, w zależności od poziomu zadłużenia oraz wartości sprzętu po zakończeniu kontraktu.

Na pierwszy rzut oka ten zwrot wydaje się atrakcyjny, ale inwestorzy muszą liczyć się z ryzykiem komodytyzacji usług neocloudów, co może wydłużyć okresy zwrotu. Kluczowym zagrożeniem jest szybkie starzenie się technologii i spadek rentowności starszych generacji układów, czyli to, o czym była mowa wcześniej. Ponadto standardowe wyliczenia okresu zwrotu, podawane przez spółki, często pomijają istotne koszty pośrednie, takie jak rozwój warstwy software, obsługa korporacyjna czy wysokie opłaty za dostęp do infrastruktury, które realnie obciążają końcowy wynik finansowy.

Idziemy dalej. Piąte ryzyko to finansowanie i dźwignia. Neocloudy są kapitałochłonne. Sprzęt, przyłącza, wdrożenia i skalowanie wymagają dużych nakładów, często finansowanych długiem lub strukturami zewnętrznymi. Tutaj szczególnie wyróżnia się CoreWeave, którego wskaźnik długu netto do EBITDA sięga niemal 8 razy. Przypomnę, iż wartości powyżej 5–6 są już uważane za niebezpieczne w większości biznesów. Całkowite zadłużenie spółki stanowi niemal pięciokrotność kapitału własnego. To potężna dźwignia. W połączeniu z dużymi kosztami stałymi i brakiem przewagi konkurencyjnej, to naprawdę mieszanka wybuchowa.

To wszystko nie oznacza, iż neocloudy są skazane na porażkę. Oznacza tylko tyle, iż to biznes, w którym ogromne ryzyko jest integralną częścią modelu. I jeżeli ktoś je ignoruje, to nie inwestuje w neocloud, tylko w własne fantazje i wykres, który wzrósł o 200% w pół roku.

Kiedy w całej historii o AI, wielkich kontraktach z OpenAI i o Nvidii inwestującej w start-upy, cokolwiek zacznie się sypać, to można mieć pewność, iż neocloudy dostaną mocno po głowie od rynku, bo inwestorzy właśnie od nich będą uciekać w pierwszej kolejności.

Neocloudy kontra Big Tech – kwestia horyzontu

Na koniec warto postawić sprawę jasno i bez emocji. Neocloudy nie są „złe”, ale też nie są automatycznie lepszym wyborem niż Big Tech tylko dlatego, iż są bliżej hasła AI. Ich obecna atrakcyjność wynika z bardzo konkretnego momentu rynkowego: niedoboru mocy, opóźnień infrastrukturalnych i presji czasu po stronie klientów. To są warunki, które sprzyjają mniejszym, wyspecjalizowanym graczom. Pytanie brzmi, jak długo te warunki się utrzymają.

Big Tech ma przewagę tam, gdzie w długim terminie zawsze decydują liczby: niższy koszt kapitału, własna infrastruktura, kontrola nad energią, przyłączami i dystrybucją usług. Do tego platformy, które już dziś monetyzują AI w pakiecie z innymi produktami, a nie jako osobny, kapitałochłonny biznes. Neocloudy operują bliżej granicy opłacalności i są znacznie bardziej wrażliwe na spadek stawek, renegocjacje kontraktów czy opóźnienia inwestycyjne.

To sprawia, iż dla inwestora neocloudy są raczej zakładem taktycznym niż strategicznym. Zakładem na to, iż niedobór mocy potrwa dłużej, niż zakłada rynek. Big Tech to z kolei zakład na to, iż w długim terminie wartość wraca tam, gdzie jest skala, synergia, know-how, integracja i kontrola kosztów.

I właśnie dlatego to nie jest wybór „albo albo”. To wybór horyzontu, tolerancji ryzyka i tego, czy inwestor gra na chwilowy brak podaży, czy na trwałą strukturę rynku.

Załóż konto na Freedom24 i odbierz choćby 20 darmowych akcji o wartości choćby kilkaset dolarów każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_broker

Do zarobienia,
Piotr Cymcyk

Porcja informacji o rynku prosto na Twoją skrzynkę w każdą niedzielę o 19:00
67
5
Idź do oryginalnego materiału