Chatbot pisze wiersze, odpowiada na maile i zbiera wszystkie pochwały, ale rachunek trafia gdzie indziej, co najlepiej pokazuje rozszerzone partnerstwo Amazona z Anthropic.
W pigułce:
- Inwestycja Amazona w Anthropic pokazuje, iż finansowanie AI coraz bardziej koncentruje się na chipach, chmurze i energii, a nie wyłącznie na oprogramowaniu.
- Wyniki ASML i TSMC sugerują, iż rozbudowa infrastruktury AI trwa w najlepsze, a ograniczona podaż mocy produkcyjnych przez cały czas daje przewagę cenową.
- Nvidia pozostaje kluczowym graczem, ale rozwój chipów projektowanych na zamówienie oraz długoterminowych kontraktów sprawia, iż strategia „sprzedawców kilofów i łopat” staje się coraz bardziej wyspecjalizowana.
20 kwietnia 2026 r. Amazon ogłosił inwestycję do 25 mld USD, podczas gdy Anthropic zobowiązał się przeznaczyć ponad 100 mld USD w ciągu najbliższej dekady na technologie Amazon Web Services. Zdaniem Saxo nie jest to klasyczna runda finansowania, ale w praktyce długoterminowa umowa infrastrukturalna. najważniejsze są bowiem szczegóły: Anthropic zabezpiecza do 5 gigawatów mocy obliczeniowej chipów Trainium, rozwija inferencję w Azji i Europie oraz pogłębia wykorzystanie chmury Amazona, który jednocześnie wskazuje, iż ponad 100 tys. klientów korzysta już z modeli Claude w AWS. Działania te coraz bardziej przypominają pozyskanie dużego klienta przemysłowego na dekadę.
W tym ujęciu oprogramowanie pozostaje istotne, ale przy rosnącej skali popytu decydują podmioty kontrolujące ograniczone zasoby: moc obliczeniową, zaawansowane chipy, sieci, chłodzenie i centra danych. „Chatbot przyciąga użytkownika, ale to infrastruktura generuje przychody” – podkreśla Dalfovo. Potwierdzają to także sygnały z rynku: ASML podniosło prognozy na 2026 r., a TSMC wskazało na wysokie nakłady inwestycyjne, co – w jego ocenie – pokazuje sektor w fazie intensywnej rozbudowy, a nie spowolnienia.
Sztuczna inteligencja coraz bardziej przypomina inwestycję infrastrukturalną z wąskimi gardłami i ograniczeniami podaży, gdzie mniej widoczna warstwa, fabryki, odlewnie półprzewodników czy centra danych, zyskuje na znaczeniu. Nvidia pozostaje centralnym punktem ekosystemu, ale rynek przesuwa się w stronę inferencji, co zwiększa znaczenie efektywności kosztowej i otwiera przestrzeń dla alternatyw, takich jak TPU Google’a czy chipy Trainium Amazona.
Jednocześnie, jak wskazuje Dalfovo, rynek odchodzi od prostego modelu „sprzedawców kilofów i łopat”. Broadcom rozwija dedykowane chipy dla Google’a do 2031 r., a kooperacja z Anthropic obejmuje dostęp do mocy obliczeniowej na poziomie 3,5 gigawata od 2027 r. To oznacza większą specjalizację, dłuższe kontrakty i rosnące znaczenie integracji sprzętu, systemu i chmury. W efekcie AI przez cały czas wygląda jak technologia na ekranie, ale pod spodem coraz bardziej funkcjonuje jak przemysł ciężki, gdzie kluczowa jest kontrola infrastruktury i jej długoterminowe wykorzystanie.
– W miarę jak AI przesuwa się z warstwy aplikacyjnej w stronę infrastruktury, rośnie znaczenie tego, jak różne segmenty tego ekosystemu reagują na zmiany cyklu inwestycyjnego. Skupienie na jednym ogniwie łańcucha wartości zwiększa wrażliwość na wahania popytu i dostępności mocy obliczeniowych. Dywersyfikacja pozwala lepiej odzwierciedlić złożoność tego rynku, w którym infrastruktura, technologie i usługi podlegają różnym dynamikom – mówi Aleksander Mrózek, Manager ds. relacji z kluczowymi klientami regionu CEE w Saxo Banku.

3 godzin temu