AI rośnie wykładniczo, ale jest w tym wszystkim jeden problem. Kończy nam się do niego prąd. Dziś nie brakuje już tak bardzo mocy obliczeniowej, co brakuje zwykłych gigawatów do tej mocy.
Centra danych zużywają tyle energii, iż niektóre państwa zaczynają traktować je jak nową kategorię przemysłu ciężkiego i właśnie dlatego największe firmy technologiczne zaczynają myśleć o rzeczach, które jeszcze kilka lat temu brzmiały jak science fiction:
własne reaktory jądrowe, lokalna produkcja energii, prywatne elektrownie przy kampusach AI.
To nie żart. Prezes Nvidii mówi wprost: „Za kilka lat centra danych będą miały własne małe reaktory atomowe.”
W tym materiale pokażę Ci:
– dlaczego energia staje się wąskim gardłem rozwoju AI,
– co naprawdę oznacza koncepcja SMR-ów dla Big Techów,
– i czy na tej rewolucji da się dziś już… zarobić.
Zaczynamy.
Big Tech myśli o własnych reaktorach atomowych. AI potrzebuje coraz więcej prądu
Załóż konto na Freedom24 i odbierz choćby 20 darmowych akcji o wartości choćby kilkaset dolarów każda!
Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_welcome
Kilowaty ważniejsze niż krzem
Na pierwszy rzut oka rozwój sztucznej inteligencji wygląda jak prosta historia o chipach. Co generacja, to więcej tranzystorów, więcej mocy obliczeniowej i więcej możliwości. Jednak Jensen Huang zwrócił uwagę na coś znacznie prostszego i dużo bardziej brutalnego. Problemem nie jest już krzem. Problemem są kilowaty, których brakuje szybciej niż mocy obliczeniowej.
Wystarczy spojrzeć na dwa światy AI. Pierwszy to nasze codzienne urządzenia. Telefony, laptopy, małe komputery. Dzięki postępowi w projektowaniu układów i coraz lepszej efektywności GPU, modele uruchamiane lokalnie robią się zaskakująco lekkie energetycznie. Tu energetyka nie jest blokadą. Prawie każdy kolejny skok technologii sprawia, iż urządzenia końcowe potrzebują mniej energii na jednostkę pracy. To świat, który elegancko się skaluje.
Drugi świat to tak zwane fabryki AI. Centra danych, w których trenuje się i obsługuje modele liczone nie w miliardach, ale w bilionach parametrów. To one zużywają chore ilości energii i to one generują cały dzisiejszy problem. Każde nowe pokolenie modeli potrzebuje nie tylko więcej mocy obliczeniowej, ale też proporcjonalnie większego zaplecza energetycznego. A sieć energetyczna, choćby w krajach rozwiniętych, nie jest w stanie w takim tempie dostarczać dodatkowych gigawatów.
Sieć nie nadąża za tempem modeli
W efekcie wąskim gardłem przestaje być architektura chipów. Staje się nim zwykła podaż energii eklektycznej, bo bez niej żaden model nie odpali, choćby miał najdoskonalszy projekt krzemowy na świecie. W praktyce oznacza to, iż dalszy rozwój AI nie jest ograniczony fizyką tranzystorów, tylko fizyką elektrowni.
Bloomberg zwraca uwagę, iż popyt na energię ze strony centrów danych rośnie w tempie, którego klasyczna infrastruktura po prostu nie jest w stanie obsłużyć. Według ich prognoz zapotrzebowanie mocy w samych Stanach Zjednoczonych ma w ciągu najbliższej dekady ponad dwukrotnie wzrosnąć, a jeżeli spojrzeć na faktyczne zużycie energii, skala robi się jeszcze bardziej uderzająca, bo średnie godzinowe zapotrzebowanie ma zbliżyć się do poziomu niemal trzy razy wyższego niż dziś.

Centrum danych jako fabryka, nie serwerownia
I właśnie dlatego firmy technologiczne zaczynają myśleć nieszablonowo. jeżeli prąd staje się towarem strategicznym, to nie wystarczy go kupować. Trzeba go mieć na własność.
Kiedyś centrum danych było po prostu dużą serwerownią. Dziś zaczyna przypominać przemysłowy zakład produkcyjny, tylko zamiast stali, czy plastiku wytwarza modele i inferencję. To fabryka w pełnym tego słowa znaczeniu, a jej podstawowym surowcem staje się energia elektryczna. I właśnie w tym miejscu dotychczasowa logika przestaje działać.
Klasyczny model rozbudowy centrów danych był prosty. jeżeli potrzeba więcej mocy obliczeniowej, dokładamy kolejne klastry i zwiększamy pobór energii z sieci. Problem w tym, iż w przypadku infrastruktury AI ta krzywa zaczęła rosnąć szybciej niż zdolność sieci do jej obsłużenia. W pewnym momencie dokładanie kolejnych megawatów przestało być kwestią pieniędzy, a stało się kwestią dostępności źródeł zasilania.
Do tego dochodzi jeszcze jedna zmiana. Dzisiejsze centra danych nie planują wzrostu na lata, ale na kwartały. Cykl życia modeli jest tak krótki, iż zapotrzebowanie energetyczne potrafi skakać w górę w tempie, którego operatorzy sieci nie są w stanie skoordynować z inwestycjami w nowe moce. Efekt jest prosty. Zaczyna brakować punktów przyłączeniowych, brakuje stabilnych dostaw i brakuje gwarancji, iż sieć będzie w stanie utrzymać pracę ogromnych klastrów w stabilnych warunkach.
To prowadzi do nowej logiki. jeżeli prąd staje się strategicznym rdzeniem działalności, to opieranie się wyłącznie na zewnętrznych dostawcach zaczyna przypominać budowanie fabryki bez własnego zaplecza logistycznego. Model kup prąd z sieci był dobry, dopóki zapotrzebowanie rosło liniowo. Dzisiejsza krzywa wygląda jednak jak wykres startującej rakiety.
Pomysł, który kiedyś brzmiał absurdalnie
W naturalny sposób pojawia się więc pytanie, które jeszcze parę lat temu brzmiało absurdalnie. Co, jeżeli centra danych zaczną same produkować energię? Co, jeżeli częścią infrastruktury IT stanie się własna elektrownia? I właśnie tu otwiera się przestrzeń dla koncepcji lokalnych, wysokowydajnych źródeł energii, które uniezależniają fabryki AI od przeciążonej i wolno rosnącej sieci energetycznej.
Zanim przejdziemy do tego, jak mogłoby to wyglądać w praktyce, trzeba zrozumieć jedną rzecz. W tej układance chodzi już nie tylko o technologię, ale o bezpieczeństwo energetyczne na poziomie firmy, a to całkowicie zmienia sposób projektowania przyszłych centrów danych.
Skoro energia staje się paliwem całego ekosystemu AI, to naturalne pytanie brzmi. Skąd ją brać w takiej ilości i z taką niezawodnością, jakiej wymagają fabryki AI. W tym miejscu pojawia się wizja Jensena Huanga i cała koncepcja SMR, czyli małych reaktorów modułowych. Prezes Nvidii powiedział niedawno coś takiego:
„Myślę, iż w ciągu najbliższych sześciu, siedmiu lat zobaczymy całą masę małych reaktorów jądrowych. Wszystkie będą pełnić funkcję lokalnych źródeł energii.”
O co tutaj chodzi? Być może nazwa mały reaktor modułowy brzmi nieco technicznie, istota sprawy jest w gruncie rzeczy prosta. To kompaktowe źródła energii jądrowej o mocy liczonych zwykle w setkach megawatów, zaprojektowane tak, aby można je było instalować tam, gdzie są potrzebne, a nie tam, gdzie historycznie budowano elektrownie.
Klucz nie tkwi jednak w technologii, ale w logice systemu. SMR ma skalę idealnie dopasowaną do współczesnych centrów danych. Jeden reaktor może pokryć zapotrzebowanie energetyczne całego kampusu i jeszcze zostawić margines na dalszą rozbudowę. Dla porównania, tradycyjna elektrownia atomowa to obiekt o mocy rzędu gigawatów, projektowany dla krajowej sieci, nie dla pojedynczego odbiorcy. SMR z kolei jest czymś pomiędzy elektrownią a infrastrukturą zakładową. Jest wystarczająco duży, aby zapewnić stabilność, ale wystarczająco mały, aby realnie postawić go obok kampusu firmy.

Tu wraca porównanie do farmy, którego też użył Jensen Huang. Klasyczna farma była samowystarczalna, bo produkowała żywność na własne potrzeby. W tym modelu centrum danych staje się energetyczną farmą. Nie kupuje prądu, tylko go wytwarza. Nie obciąża sieci, tylko ją odciąża. A w razie potrzeby może choćby oddawać nadwyżki z powrotem do systemu. To nie jest wizja oderwana od rzeczywistości, ale odpowiedź na proste równanie. jeżeli popyt na prąd rośnie szybciej niż podaż z krajowej sieci, najrozsądniejszym rozwiązaniem jest lokalna produkcja.
Z ekonomicznego punktu widzenia SMR oferuje coś jeszcze. Przewidywalność. Reaktor działa w sposób ciągły przez lata, bez wahań typowych dla źródeł odnawialnych i bez uzależnienia od cen rynkowych energii. W branży, w której każda godzina przestoju kosztuje majątek, stabilność staje się wartością samą w sobie.
Systemowo oznacza to rewolucję. Energetyka przestaje być scentralizowaną usługą publiczną, a staje się elementem prywatnej infrastruktury technologicznej. Firmy technologiczne mogą więc nie tylko uniezależnić się od sieci, ale wręcz podnieść efektywność jej działania. Ostatecznie nie będą musiały płacić marży dystrybutorom i producentom energii elektrycznej. Co więcej, jeżeli część największych odbiorców przejdzie na własną produkcję energii, reszta gospodarki paradoksalnie może na tym zyskać. Jak? Przede wszystkim odciążając sieć i minimalizując ryzyko blackoutów. Po drugie, jeżeli popyt spadnie, to pojawi się presja na ceny energii elektrycznej.
Gdy Big Tech staje się megaprosumentem
Tylko jakie jeszcze mogą być konsekwencje tej rewolucji? Pierwszy dotyczy sieci przesyłowych. Dzisiejszy problem to gwałtowne skoki popytu generowane przez sektor AI. Operatorzy próbują to obsłużyć, ale infrastruktura ma fizyczne granice. Lokalna produkcja energii odcina te skoki u źródła, dzięki czemu sieć przestaje pracować pod presją ciągłego dokładania nowych przyłączy wysokiej mocy. To daje operatorom realny oddech i pozwala ukierunkować inwestycje tam, gdzie są najbardziej potrzebne.
Druga zmiana dotyczy miksu energetycznego. Wejście przedsiębiorstw w rolę producentów nie oznacza rezygnacji z krajowych elektrowni, ale przesuwa środek ciężkości. Źródła scentralizowane przestają być jedynym fundamentem systemu. W miksie pojawia się nowa kategoria odbiorców, którzy jednocześnie produkują energię. Ich udział może być mały w skali kraju, ale duży w skali obciążenia, bo mowa o sektorze, który zużywa setki megawatów na obiekt. To zmienia sposób patrzenia na bilansowanie systemu i wymusza większą elastyczność w planowaniu produkcji.
Jeśli w systemie pojawiają się megaprosumenci, operatorzy muszą przestać traktować ich jak dużego klienta biznesowego i zacząć podchodzić do nich jak do pełnoprawnych wytwórców energii. To oznacza nowe zasady przyłączania. Umowa nie może dotyczyć wyłącznie poboru mocy. Od początku trzeba określić osobno maksymalny pobór i maksymalną generację oraz wymusić, żeby taki podmiot był sterowalny. Operator musi mieć możliwość poproszenia o ograniczenie oddawania energii do sieci albo o chwilowe zmniejszenie poboru w sytuacjach krytycznych. To już bardziej kontrakt z elektrownią niż klasyczna umowa z odbiorcą.
W efekcie zmienia się także sposób planowania sieci. Zamiast myślenia wyłącznie w kategoriach regionów i ogólnego zapotrzebowania, operator musi zacząć projektować infrastrukturę wokół konkretnych węzłów, czyli kampusów z własnym źródłem energii. Taki węzeł potrzebuje wzmocnionej, bardziej odpornej lokalnej sieci, bo czasem będzie pobierał moc z systemu, a czasem oddawał nadwyżki. Trzeba uwzględnić scenariusz, w którym lokalne źródło nagle się wyłącza i system krajowy musi przejąć zasilanie krytycznej infrastruktury.

Trzeci punkt to strategia operatorów. jeżeli największe zapotrzebowanie zostaje zdjęte z sieci, operatorzy mogą skupić się na modernizacji, a nie na defensywie. Przez ostatnie lata infrastruktura rosła głównie po to, by obsłużyć rosnące centra danych. W modelu samowystarczalnych farm energetycznych priorytety przesuwają się na poprawę jakości, odporności i integrację odnawialnych źródeł, które wymagają innego typu planowania niż stabilna baza mocy.
Decentralizacja energetyki nie jest tylko technologiczną ciekawostką. To zjawisko, które wpływa na całą architekturę systemu, a gdy największy odbiorca energii w gospodarce zaczyna zmieniać sposób pozyskiwania mocy, reszta rynku nie ma wyjścia. Musi dostosować się do nowej logiki działania.
Z jednej strony oznacza to niższe ceny dla reszty konsumentów i mniejsze skoki zapotrzebowania na moc oraz więcej czasu w modernizacje obecnych sieci, ale z drugiej strony oznacza też, iż system będzie zmuszony do większej elastyczności, bo pojawią się nowe źródła energii (właśnie SMR-y), które okresowo będą chciały wprowadzać do systemu swoje nadwyżki mocy.
Zderzenie z rzeczywistością: regulacje, koszty, wykonanie
Czas teraz przejść do mniej kolorowej części tej opowieści. Wizja lokalnych reaktorów zasilających fabryki AI brzmi logicznie, ale droga do jej realizacji nie jest taka prosta. Największe bariery nie wynikają z samej koncepcji, tylko z otoczenia, w którym takie projekty musiałyby powstawać. Pierwsza i najtwardsza przeszkoda to regulacje. Energetyka jądrowa działa w jednym z najbardziej złożonych reżimów prawnych na świecie. Każdy kraj ma własne procedury, własne wymagania, własne instytucje nadzorcze i własne standardy bezpieczeństwa. To sprawia, iż projekt, który na papierze można postawić w kilka lat, w praktyce potrafi utknąć w procesach licencyjnych na znacznie dłużej. SMR miał być prostszy niż klasyczna elektrownia, ale „prostszy” nie oznacza „szybki”. Certyfikacja modułowego reaktora wciąż jest pełnoprawnym procesem jądrowym, który nie znosi pośpiechu.
Przykład? Pełny proces certyfikacji pierwszego projektu SMR firmy NuScale przez amerykańską komisję NRC (Nuclear Regulatory Commission) trwał łącznie około 6 lat. Według Jensena właśnie za tyle lat od dziś każdy Big Tech będzie miał SMR-y koło swoich centów danych. Pierwsze kroki zawsze są najtrudniejsze, jasne, ale i tak wyznaczony przez prezesa Nvidii termin brzmi odważnie.

Drugim ograniczeniem są koszty. Idea SMR zakłada, iż modułowość i seryjna produkcja pozwolą zejść z kosztów do poziomu atrakcyjnego dla firm. Tylko, iż rzeczywistość na razie nie potwierdza tej narracji. Wiele projektów okazało się droższych niż zakładano.
Wykres, który teraz widzicie jest tego najbardziej brutalnym dowodem. Widać tam trzy projekty SMR i to jak zmieniały się prognozowane koszty realizacji tych projektów w kolejnych latach. Im bliżej było prawdziwej realizacji, tym większe okazywały się koszty.

Co więcej, przykłady z rynku pokazują sytuacje, w których koszty budowy rosły na tyle szybko, iż inwestorzy wycofywali się z przedsięwzięcia jeszcze przed wbiciem pierwszej łopaty.
8 listopada 2023 roku, już dwa lata temu spółka NuScale poinformowała, iż w porozumieniu z grupą energetyczną z Utah zdecydowała się zakończyć projekt budowy małego reaktora modułowego (SMR).
Jak podaje Ruters NuScale planowało zrealizować projekt obejmujący sześć reaktorów o łącznej mocy 462 megawatów we współpracy z Utah Associated Municipal Power Systems (UAMPS) i uruchomić go w 2030 roku, jednak kilka miast wycofało się z przedsięwzięcia właśnie z powodu wzrostu kosztów.

Do tego dochodzą bariery techniczne. SMR-y nie są gotowym produktem. To wciąż technologia, która w większości państw nie przeszła pełnego cyklu przemysłowego od projektu, przez budowę, po wieloletnią eksploatację. Firmy, które chciałyby postawić reaktor obok kampusu, muszą liczyć się z tym, iż wchodzą na teren, na którym standardów operacyjnych jest mało, a odpowiedzi na część pytań dopiero powstają. Nie chodzi o bezpieczeństwo samej technologii, tylko o praktyczne doświadczenie z jej wdrażaniem. Na placu budowy pojawi się masa pozornie prostych pytań, na które jeszcze nikt wcześniej nie musiał odpowiadać, a to zawsze przekłada się na opóźnienia. Brakuje ustandaryzowanych łańcuchów dostaw, wyspecjalizowanych wykonawców i ekip serwisowych, a to wszystko podnosi ryzyka harmonogramowe.
W skrócie. Wizja lokalnych reaktorów SMR jest realna jako kierunek, ale jej wdrożenie wymaga czasu, pieniędzy i pokonania bardzo konkretnych barier operacyjnych. To nie jest projekt, który powstanie tylko z entuzjazmu. To projekt, który powstanie, jeżeli technologia stanie się tańsza, procesy regulacyjne bardziej przewidywalne, a łańcuch dostaw wejdzie w dojrzałą fazę. Dopiero wtedy skala, o której mowa, stanie się możliwa do osiągnięcia. I chociaż nie neguję samej wizji Jensena Huanga, to nie wierzę, iż zrealizuje się ona w trakcie kolejnych 6-7 lat.
Znajdziesz tam więcej wartościowych treści o inwestowani, giełdzie i rynkach.
DNA Rynków – merytorycznie o giełdach i gospodarkach
Inwestowanie w wizję — spekulacja zamiast „utility”
No, ale mimo tych obiekcji i ryzyk, Was pewnie najbardziej interesuje co innego. Czy można w to zainwestować?
Technicznie można. Nie ma z tym problemu. Trzeba pamiętać o tym, iż to wciąż ekstremalnie młody sektor, a przez to niesamowicie zmienny, ale inwestować – można.
Jeśli chcesz zagrać na wizję świata, w którym kampusy AI mają własne reaktory, to na giełdzie da się już znaleźć pierwsze „czyste zakłady” pod ten scenariusz. Problem w tym, iż wszystkie trzy spółki, o których za chwilę, są raczej na etapie obietnic i projektów niż działających elektrowni. To nie jest klasyczna energetyka z przewidywalnym cash flow, tylko publicznie notowane start-upy.
Na dziś najbliżej wizji małych reaktorów dla dużych odbiorców stoją trzy spółki: NuScale Power o tickerze SMR, Oklo o tickerze OKLO oraz Nano Nuclear Energy o tickerze NNE. Każda gra w tę samą grę, czyli małe reaktory i zasilanie odbiorców takich jak centra danych.

NuScale to najbardziej „klasyczny” podmiot z tej trójki. Firma rozwija małe wodne reaktory ciśnieniowe, NuScale Power Module, które dają około 77 megawatów mocy elektrycznej z jednego modułu, a całe elektrownie VOYGR można skalować od kilku do dwunastu modułów, do prawie 1 gigawata mocy. Reaktor jest chłodzony lekką wodą, korzysta z dość konserwatywnej technologii, a przewaga polega na rozmiarze i modułowości, nie na egzotycznym paliwie. Co ważne, NuScale ma już certyfikację amerykańskiego nadzoru jądrowego dla swojej konstrukcji oraz zatwierdzoną nową wersję modułu 77 megawatów, co stawia firmę o krok przed sporą częścią konkurencji, przynajmniej formalnie.
Od strony finansów NuScale jest wciąż spółką na etapie wdrażania technologii, a nie producentem prądu. W trakcie ostatnich 12 miesięcy firma wypracowała około 64 milionów dolarów przychodów, głównie z usług projektowych i inżynieryjnych, przy stracie netto rzędu 380 milionów dolarów.

Pomimo tego, iż firma spala kapitał w astronomicznym tempie to udaje jej się cały czas pozyskiwać nowe fundusze z dotacji i od inwestorów, w efekcie wartość gotówki na rachunku firmy od kilku lat systematycznie rośnie.

Cena akcji znajduje się dziś 70% poniżej szczytów z października, ale niech Was to nie zmyli, bo to wcale nie oznacza, iż spółka jest tania. Oznacza to jednak coś innego. Jest okropnie zmienna i jeżeli nie jesteście gotowi o spadki na poziomie minus 70%, to lepiej się nie zbliżajcie.

Oklo to zupełnie inna bajka. To start up z Doliny Krzemowej, który rozwija szybkie reaktory sodowe Aurora, celowo projektowane jako kompaktowe źródła mocy dla odbiorców takich jak data centers czy przemysł. Ich standardowe jednostki to mniej więcej 15 lub 50 megawatów, co bardzo dobrze układa się z logiką tak zwanych data halls, czyli bloków mocy w dużych centrach danych. Oklo chwali się dziś portfelem listów intencyjnych na około 1350 megawatów, z czego około 600 megawatów wiąże się bezpośrednio z klientami z branży centrów danych. Wśród wymienianych partnerów pojawiają się takie nazwy jak Diamondback Energy, Wyoming Hyperscale oraz wstępna umowa z Equinix. Trzeba jednak jasno powiedzieć, iż mówimy o listach intencyjnych, a nie o działających reaktorach ani o twardych kontraktach.
Oklo nie chce sprzedawać samych reaktorów, tylko energię. W praktyce oznacza to podejście: my budujemy, finansujemy i eksploatujemy reaktor, a klient podpisuje z nami wieloletnią umowę na odbiór mocy i płaci za prąd. To jest finansowo coś pomiędzy klasyczną elektrownią a długoterminową umową PPA. Pozwala to klientowi uniknąć licencjonowania, operowania obiektem jądrowym i całej otoczki regulacyjnej, ale jednocześnie przerzuca ogromne potrzeby kapitałowe na samą spółkę. Dziś Oklo nie generuje jeszcze przychodów, nie ma działającego komercyjnego reaktora, a analitycy zakładają brak przychodów co najmniej do 2027 roku. Mimo to wycena rynkowa doszła do poziomów liczonych w dziesiątkach miliardów dolarów, a spółka raportuje straty i żyje z kapitału pozyskanego od inwestorów.

Ale jeżeli myślicie, iż całkowity brak przychodów, to esencja wczesnej fazy rozwoju, to mam dla Was jeszcze lepszego zawodnika. Nano Nuclear Energy pozostało wcześniej na krzywej rozwoju. To spółka, która próbuje zbudować cały ekosystem wokół mikroreaktorów: własne projekty reaktorów, elementy paliwowe, usługi transportu paliwa oraz doradztwo. Trzon technologiczny to przede wszystkim projekt ZEUS, czyli mikroreaktor o zamkniętym, szczelnie zabudowanym rdzeniu, który ma działać jak rodzaj jądrowej baterii, oraz projekt ODIN, niskociśnieniowy reaktor chłodzony cieczą. Te konstrukcje są wciąż na etapie projektów, ale przeszły już wstępne przeglądy koncepcyjne w Idaho National Laboratory, co stanowi rodzaj zewnętrznego audytu inżynieryjnego. Najnowsze ruchy strategiczne Nano Nuclear pokazują, iż spółka chce zawęzić fokus i sprzedać prawa do projektu ODIN firmie Cambridge AtomWorks, aby skoncentrować się na ZEUS oraz pokrewnych mikroreaktorach.
Finansowo Nano Nuclear to książkowy przykład spółki przedprzychodowej. W prospekcie emisyjnym i późniejszych analizach firma jest wprost opisywana jako podmiot bez przychodów, który generuje wyłącznie koszty badań, rozwoju i ogólnego zarządu. Kapitał na działania pochodzi przede wszystkim z rynku: początkowa oferta publiczna na około 10 milionów dolarów, późniejsze podwyższenie kapitału o mniej więcej 18 milionów oraz osobna prywatna runda na 60 milionów z udziałem inwestorów instytucjonalnych.
Z perspektywy inwestora te trzy spółki są więc bardzo różnymi końcami tej samej historii. NuScale jest najbliżej klasycznej energetyki, ma realną technologię zaakceptowaną przez regulatora i pierwsze przychody, ale cały biznes opiera się na tym, iż uda się dopiąć duże, kapitałochłonne projekty. Oklo jest czystą grą pod wizję zasilania centrów danych reaktorami szybkimi, z modelem sprzedaży energii, a nie urządzeń, ale działa wyłącznie na listach intencyjnych i obietnicy przychodów za kilka lat. Nano Nuclear to jeszcze wcześniejszy zakład na to, iż mikroreaktory i towarzysząca im infrastruktura paliwowa w ogóle wejdą do komercyjnego użycia.
Jeśli więc zadajesz sobie pytanie, czy na rynku można „zainwestować w wizję Jensena”, odpowiedź brzmi: tak, ale w tej chwili są to raczej spekulacyjne zakłady na bardzo wczesne etapy rozwoju technologii niż stabilne spółki energetyczne. Co więcej, równolegle do tej trójki działają już duzi gracze z klasycznym atomem, tacy jak Constellation czy Vistra, którzy podpisują realne kontrakty na zasilanie centrów danych i korzystają z istniejących bloków jądrowych, więc wybór ekspozycji na ten temat wcale nie jest oczywisty.
Inwestując w takie maluchy, jak NuScale, czy Oklo trzeba mieć świadomość tego, iż to jest zakład naprawdę długoterminowy, ewentualnie czysto spekulacyjny. Trzeba się przygotować choćby na kilka lat tak zwanego „dead money” czyli kiszenia się kursu w zapomnieniu, aż nie dojdzie do jakiegoś przełomu, który wywinduje kurs o 400% w dwa tygodnie. Absolutnie nie można się zrażać do takiej inwestycji dlatego, iż spadło o 30, 40, czy 60%. Taka natura firm na wczesnym etapie rozwoju. Byle plotka potrafi posłać je do piekła.
Puenta: kto kontroluje prąd, ten kontroluje AI
To nie jest opowieść o atomie. To jest opowieść o tym, iż energia przestaje być tylko usługą, a staje się przewagą konkurencyjną, że w świecie, gdzie liczy się każda milisekunda inferencji i każda megawatogodzina dostępności, firmy nie będą czekać, aż system nadąży tylko same go sobie zbudują.
Oczywiście nie stanie się to z dnia na dzień. Technologia musi jeszcze dojrzeć. Koszty muszą spaść. Regulacje muszą nadążyć, ale trend jest jasny: kto kontroluje prąd, ten kontroluje przyszłość AI.
I choćby jeżeli reaktory obok kampusów dziś brzmią jak science fiction, to za kilka lat mogą się okazać… po prostu kolejną linią w Excelu przy planowaniu infrastruktury.
A wtedy inwestorzy, którzy dziś szukają ekspozycji na ten temat choćby przez ETF-y czy konkretne spółki z sektora, mogą znaleźć się po adekwatnej stronie tej energetycznej rewolucji.
Załóż konto na Freedom24 i odbierz choćby 20 darmowych akcji o wartości choćby kilkaset dolarów każda!
Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_welcome
Do zarobienia,
Piotr Cymcyk

1 dzień temu






