Wydajność nie wystarczy, by infrastruktura IT sprostała wymaganiom generatywnej sztucznej inteligencji. Rosnące obciążenia, większe zużycie energii i potrzeba skalowalności wymuszają nowe podejście do projektowania środowisk AI-ready.
Firmy nie chcą już „więcej mocy” – chcą więcej równowagi: między mocą obliczeniową, efektywnością energetyczną, skalowalnością i kosztami operacyjnymi. To przesuwa ciężar decyzji z czystej specyfikacji sprzętowej na systemowe podejście do infrastruktury IT.
AI zmienia priorytety organizacji
Wzrost zapotrzebowania na moc obliczeniową przez systemy AI zmienia sposób, w jaki organizacje podchodzą do planowania centrów danych. „Rozwój sztucznej inteligencji stanowi jeden z kluczowych czynników redefiniujących architekturę IT i podejście do efektywności energetycznej w centrach danych. Organizacje coraz częściej poszukują rozwiązań, które zapewniają wysoką wydajność przy ograniczonym zapotrzebowaniu na energię, umożliwiając jednocześnie skalowalność i wsparcie dla zaawansowanych obciążeń. Kluczowym elementem tej transformacji jest wykorzystanie innowacyjnych technologii, takich jak bezpośrednie chłodzenie cieczą (DLC – Direct Liquid Cooling), które odgrywa coraz większą rolę w architekturze AI-ready.” – mówi Karolina Solecka, Compute Sales Director w Hewlett Packard Enterprise Polska.

Jeszcze do niedawna głównym kryterium była maksymalna wydajność. Dziś firmy coraz częściej chcą wydajności bez energetycznego przeciążenia. Wynika to zarówno z rosnących kosztów energii, jak i presji środowiskowej (ESG). Efektywność przestaje być dodatkiem – staje się wymogiem.
Projektowanie infrastruktury zaczyna się od chłodzenia
AI nie tylko zwiększa zapotrzebowanie na energię – przede wszystkim generuje ciepło, którego nie da się już odprowadzić klasycznymi metodami. Tradycyjne chłodzenie powietrzem przestaje być wystarczające przy rosnącej gęstości obliczeń.
„Systemy AI wymagają ogromnej mocy obliczeniowej, co generuje znaczne ilości ciepła. Tradycyjne metody chłodzenia, oparte na wymianie powietrza, przestają być efektywne przy wysokiej gęstości obliczeń” – wyjaśnia ekspertka z HPE.
To oznacza, iż fizyczna architektura infrastruktury – od rozstawienia szaf po obieg powietrza – musi być zaprojektowana na nowo. Chłodzenie staje się punktem wyjścia, a nie dodatkiem do infrastruktury.
DLC: kluczowa technologia transformacji
Rozwiązaniem, które zyskuje na znaczeniu, jest Direct Liquid Cooling (DLC) – chłodzenie cieczą, bezpośrednio z komponentów takich jak CPU i GPU. W porównaniu z tradycyjnymi metodami, DLC pozwala znacząco ograniczyć zużycie energii i zwiększyć efektywność środowisk obliczeniowych.
„Dlatego HPE tak mocno inwestuje w rozwój technologii chłodzenia cieczą, która umożliwia bezpośrednie odprowadzanie ciepła z komponentów, takich jak CPU i GPU” – podkreśla Karolina Solecka.
Oszczędności mogą sięgać choćby 30–40% energii w porównaniu z chłodzeniem powietrzem. Ale to nie wszystko – DLC pozwala również na **kompaktowe projektowanie centrów danych, co jest istotne zwłaszcza dla firm z ograniczoną przestrzenią lub planujących wdrożenia edge.
„DLC nie tylko zwiększa efektywność energetyczną, redukując zużycie energii o choćby 30–40%, ale również pozwala na bardziej kompaktowe projektowanie centrów danych.”
Nowe pytania klientów: jak optymalizować, a nie maksymalizować
Zmienia się także sposób, w jaki klienci podchodzą do zakupu i wdrażania infrastruktury IT. W centrum uwagi nie jest już tylko „maksymalna moc”, ale zrównoważony rozwój, kontrola zużycia i optymalizacja TCO (całkowitego kosztu posiadania).
„Klienci coraz częściej kierują się nie tylko maksymalizacją wydajności, ale również efektywnością energetyczną i zrównoważonym rozwojem” – zauważa przedstawicielka HPE.
To przesunięcie priorytetów wiąże się z rosnącą presją na raportowanie środowiskowe, ale też z realnymi potrzebami operacyjnymi – firmy nie chcą płacić za energię, której nie mogą kontrolować. Chcą środowisk, które można monitorować, skalować i zoptymalizować pod kątem faktycznego wykorzystania.
Model usługowy wspiera energooszczędne podejście
W tym kontekście zyskują na znaczeniu modele „as-a-service” – elastyczne, rozliczane na podstawie rzeczywistego zużycia zasobów. Takie rozwiązania pozwalają klientom uniknąć przewymiarowania środowiska, a tym samym ograniczają niepotrzebne zużycie energii i chłodzenia.
„Klienci coraz częściej kierują się nie tylko maksymalizacją wydajności, ale również efektywnością energetyczną i zrównoważonym rozwojem. Technologie takie jak DLC pozwalają na osiągnięcie tej równowagi, zapewniając jednocześnie wsparcie dla zaawansowanych obciążeń AI. Firmy również doceniają elastyczność modeli “as-a-service”, takich jak HPE GreenLake, które pozwalają dostosować infrastrukturę do zmieniających się potrzeb biznesowych, minimalizując przy tym koszty operacyjne.” – mówi Solecka.
W ten sposób technologia staje się nie tylko bardziej dostępna, ale też bardziej efektywna – zarówno energetycznie, jak i finansowo.
AI-ready to architektura od podstaw
Rozwój sztucznej inteligencji wymaga, by całe podejście do infrastruktury IT uległo zmianie. Nie chodzi już o dodanie szybszych procesorów do istniejącej serwerowni. Chodzi o nowe zasady projektowania, które zaczynają się od efektywności energetycznej, uwzględniają chłodzenie jako integralny element systemu i kończą na modelu operacyjnym, który pozwala rosnąć bez marnowania zasobów.
„Rozwój technologii AI wymaga nowego podejścia do projektowania infrastruktury IT. W HPE wierzymy, iż technologie takie jak chłodzenie cieczą są kluczem do efektywnego i zrównoważonego rozwoju centrów danych, które sprostają wymaganiom przyszłości.” – podsumowuje Karolina Solecka.