OpenAI przechodzi na AWS. 38 mld dolarów na gigantyczną moc obliczeniową

2 godzin temu
Zdjęcie: OpenAI Flex


AWS i OpenAI znowu – formalnie – splatają losy na wielu miliardach dolarów i milionach CPU. Wokół AI jest dziś kilka osi napięcia: kto kontroluje compute, kto zamyka deale z producentami GPU, kto buduje hyperscale datacenter i kto będzie beneficjentem kolejnej fali adopcji. Ta umowa jest odpowiedzią i na presję kapitałową wokół AI, i na niedostatek mocy obliczeniowej na rynku.

Oba podmioty mówią o siedmioletnim horyzoncie i wartości 38 mld dolarów. W kontekście tego, iż same wydatki CapEx Amazona na centra danych przekroczą w 2024 roku 60 mld dolarów według szacunków analityków – to partnerstwo nie jest anomalią. To kolejny krok w epoce, w której compute stało się nie tylko walutą, ale także mechanizmem kontroli narracji i popytu.

Z perspektywy OpenAI to ruch obliczony na hedging: firma – która nie ma własnej infrastruktury z prawdziwego zdarzenia – musi mieć dostęp do dużej, stabilnej, taniej i przewidywalnej warstwy hardware. Rynek GPU wciąż jest napięty, mimo iż NVIDIA od półtora roku systematycznie podnosi wolumeny. jeżeli OpenAI faktycznie chce utrzymać cykl premier nowych modeli, tym razem nie może się już oprzeć wyłącznie na architekturze Microsoftu.

Z perspektywy AWS – to dowód na odzyskiwanie pozycji w AI po słabszym 2023, kiedy to Google i Azure szybciej zamykali głośne partnerstwa wokół generatywnego AI. Amazon ma Hyperscaler DNA w HPC. Teraz pokazuje, iż jest w stanie udostępnić OpenAI setki tysięcy GPU już dziś i skalować do dziesiątek milionów CPU później. W praktyce oznacza to, iż OpenAI będzie mogło trenować kolejne generacje modeli na klastrach Ultra EC2, które Amazon buduje jako własny, AI-native fabric.

Element, który nie jest widoczny w komunikacie, ale determinuje sens tej współpracy: Amazon Bedrock. Modele OpenAI stały się tam dostępne na zasadzie usług API, co wprowadza marże wprost do P&L AWS-a. OpenAI zyskuje skalę i niższy koszt compute, a Amazon zyskuje modele, które wcześniej konkurowały z jego własnymi.

Jeśli ten model współpracy się utrzyma, w 2025 zobaczymy więcej takich wieloletnich kontraktów. Hyperscalerzy zaczęli rozumieć, iż AI Foundation Models to nie pozostało SaaS play, tylko HPC play w czystej postaci. Prawdziwy moat idzie więc przez cały czas na poziomie krzemu, chłodzenia i mocy.

Kontekst branżowy jest tu kluczowy. Według danych Synergy Research z Q2 2024 hyperscalerzy przeznaczyli rekordowe 78 mld dolarów CAPEX na datacenter i infrastruktury sieciowe – głównie z powodu AI. Ten CAPEX ma być zmonetyzowany nie poprzez sprzedaż chmury ogólnego przeznaczenia, tylko poprzez sprzedaż AI jako compute-as-a-service.

Tymczasem rynek enterprise – z powodu rosnących obciążeń danych, nowych regulacji oraz presji na automatyzację – zdaje się niespecjalnie hamować. OpenAI i AWS czują ten impuls. Umowa może wyglądać jak transakcja infrastrukturalna. Faktycznie jest ruchiem ofensywnym, by przechwycić strumień popytu, który w latach 2025–2027 będzie rynkiem największego transferu mocy obliczeniowej w historii sektora IT.

Idź do oryginalnego materiału