
Do niedawna centra danych rozwijano w przewidywalnym rytmie. Liczyły się powierzchnia, redundancja, stabilność zasilania i chłodzenie – najlepiej pasywne, by ograniczać koszty. Dziś ten model trzeszczy w szwach. Za sprawą gwałtownego wzrostu zapotrzebowania na moc obliczeniową do przetwarzania modeli sztucznej inteligencji, fizyczna architektura centrów danych musi ulec fundamentalnej zmianie.
W centrum rewolucji stoją GPU – układy graficzne, które przejęły rolę głównego silnika obliczeniowego dla generatywnej AI. Ale większa moc to też więcej ciepła, energii, złożoności… i problemów, których nie da się już „zredukować” lepszą wentylacją.
Od CPU do GPU: skok w zapotrzebowaniu
Modele językowe i systemy generatywne działają w sposób nieliniowy. W odróżnieniu od klasycznych obciążeń IT, gdzie zużycie mocy rosło proporcjonalnie do liczby użytkowników lub transakcji, AI wprowadza gwałtowne skoki zapotrzebowania – i ogromne piki energetyczne. Jeden dobrze wytrenowany model może w ciągu kilku godzin zużyć więcej mocy niż cała baza danych banku w tydzień.
Odpowiedzią branży na te potrzeby są klastry GPU – często w układach H100 lub Grace Hopper, zintegrowane z magistralami NVLink i rozproszone między wyspecjalizowanymi węzłami. W tradycyjnym centrum danych trudno jednak efektywnie wykorzystać takie klastry bez całkowitej przebudowy systemu zasilania i chłodzenia. To właśnie dlatego operatorzy przestają adaptować istniejącą infrastrukturę i coraz częściej projektują obiekty „od zera” – specjalnie pod AI.
Infrastruktura, która musi myśleć
GPU zużywają znacznie więcej energii niż CPU – i to nie tylko w jednostkach bezwzględnych, ale też w gęstości na szafę. To oznacza, iż dotychczasowe normy zasilania – np. 4–6 kW na szafę – przestają mieć zastosowanie. W projektach opartych na AI planuje się dziś moc rzędu 20–30 kW na szafę, a w niektórych przypadkach choćby więcej.
Takie wartości nie tylko wymagają większej podaży mocy z zewnątrz, ale też zmieniają sposób zarządzania energią wewnątrz obiektu. Centra danych stają się systemami energetycznymi, w których liczy się orkiestracja mocy – czyli dynamiczne zarządzanie zasilaniem między strefami w zależności od obciążenia.
Równolegle pojawia się konieczność zmiany systemów chłodzenia. Wentylatory i klimatyzacja przestają wystarczać. Coraz częściej stosuje się chłodzenie cieczą – najpierw w formie chłodzonych płyt (cold plate), a w dalszym etapie poprzez pełne zanurzenie układów (immersion cooling). To już nie są tylko rozwiązania niszowe – to warunek funkcjonowania w erze GPU.
Modularność zamiast monolitu
Odpowiedzią na złożoność technologiczną stała się modularność. Nowe centra danych coraz częściej powstają w postaci prefabrykowanych modułów – gotowych bloków zasilania, chłodzenia i serwerowni, które można gwałtownie zestawić, rozbudować lub przenieść. Elastyczność stała się nowym dogmatem.
Tradycyjny model dużych serwerowni, gdzie wszystkie funkcje były zintegrowane w jednej bryle, ustępuje miejsca rozproszonym konstrukcjom, które można projektować z większą precyzją pod konkretne obciążenia – zwłaszcza GPU. To pozwala lepiej zarządzać nie tylko wydajnością, ale też kosztami operacyjnymi i bezpieczeństwem.
Automatyzacja to nie luksus – to warunek działania
Im bardziej złożone stają się systemy AI, tym bardziej nieprzewidywalne stają się obciążenia. W odpowiedzi operatorzy centrów danych wdrażają coraz bardziej zaawansowane systemy monitoringu i automatyki – od predykcji awarii, przez dynamiczne zarządzanie chłodzeniem, po ciągłą analizę stanu zasilania.
W praktyce oznacza to, iż fizyczna obecność technika staje się rzadkością. Zarządzanie odbywa się zdalnie, często z wykorzystaniem AI, która sama podejmuje decyzje o balansowaniu obciążenia lub włączaniu zapasowych systemów. To nie tyle automatyzacja, co całkowita redefinicja operacji.
Klienci nie kupują już powierzchni – kupują moc
W tradycyjnym modelu klient data center wynajmował określoną powierzchnię lub szafę. Dziś, w erze AI, kluczową walutą staje się dostępna moc – i to ona decyduje o cenie, dostępności oraz atrakcyjności oferty.
Pojawiają się też nowi klienci – startupy AI, dostawcy modeli językowych, fintechy, ale też firmy przemysłowe, które wdrażają własne modele predykcyjne. Ich potrzeby są dynamiczne, a wymagania wysokie. Oczekują elastyczności, skalowalności i wsparcia technicznego w dostosowywaniu infrastruktury do obciążeń, które nie zawsze da się przewidzieć.
Era GPU nie skończy się na H100 czy MI300. Kolejne generacje układów będą jeszcze bardziej energochłonne, jeszcze bardziej wyspecjalizowane i jeszcze trudniejsze do integracji w istniejących środowiskach. Dlatego centra danych będą musiały się zmieniać – nie tylko pod względem technologii, ale też kultury projektowej i operacyjnej.
Coraz częściej nie chodzi o to, ile masz przestrzeni, ale czy jesteś w stanie dostarczyć moc tam, gdzie będzie potrzebna – zanim pojawi się klient. To całkowita zmiana perspektywy.