Zimna rewolucja – czy obliczenia kriogeniczne staną się odpowiedzią na energetyczny kryzys data center?

1 dzień temu
Zdjęcie: data center


Gdy sztuczna inteligencja staje się fundamentem cyfrowej gospodarki, a data center pochłaniają coraz więcej energii, branża IT zaczyna szukać sposobów na przebudowanie podstaw swojej efektywności. Jednym z najbardziej zaskakujących kierunków tej transformacji może być… głęboki chłód. Dosłownie.

Zespół naukowców z Forschungszentrum Jülich, RWTH Aachen, EPFL, TSMC i japońskich uczelni sugeruje, iż znane od dziesięcioleci układy CMOS, napędzające praktycznie każdą elektronikę, mogą działać znacznie efektywniej w bardzo niskich temperaturach. Przy zastosowaniu odpowiednich materiałów i architektur, możliwe są – według badaczy – oszczędności energetyczne choćby do 80%.

To podejście, choć brzmi futurystycznie, wpisuje się w coraz bardziej palącą potrzebę radykalnego zwiększenia wydajności energetycznej w centrach danych.

Od ciepła do chłodu – zmiana paradygmatu

Współczesne chipy projektowane są z myślą o pracy w temperaturze pokojowej. Generują one znaczne ilości ciepła, które trzeba skutecznie odprowadzać – co samo w sobie wymaga ogromnych nakładów energii. Według Międzynarodowej Agencji Energetycznej (IEA), zapotrzebowanie data center na energię elektryczną może podwoić się do 2030 roku, głównie za sprawą rozwoju AI i chmury.

Ale co, jeżeli zamiast zarządzać ciepłem, należałoby go po prostu unikać? Obliczenia kriogeniczne, czyli prowadzone w temperaturach bliskich zera absolutnego, mogą umożliwić znaczące zmniejszenie napięcia potrzebnego do przełączania tranzystorów. A niższe napięcie to mniej strat, mniej ciepła i więcej wydajności.

W teorii, im niższa temperatura, tym bardziej „zdyscyplinowane” zachowanie elektronów i mniejsze napięcie progowe potrzebne do przełączania. W praktyce – przy temperaturze -196°C (77 K, osiąganej przy pomocy ciekłego azotu) można osiągnąć oszczędności rzędu 70%. W skrajnych przypadkach, przy chłodzeniu helem do poziomu 4 K, zyski energetyczne sięgają 80%.

Fizyczne ograniczenia i materiałowa rewolucja

Sęk w tym, iż tradycyjne układy CMOS nie są zoptymalizowane do pracy w tak niskich temperaturach. Wchodzą tu w grę zjawiska fizyczne, które są pomijalne w warunkach „ciepłych”, ale dominują w chłodzie. Mowa o efektach opasmowego ogona, defektach materiałowych i zjawiskach kwantowych, takich jak tunelowanie elektronów.

Aby osiągnąć deklarowaną efektywność, konieczna jest więc zmiana nie tylko warunków pracy układów, ale i ich samej budowy. Zespół badawczy wskazuje na konkretne kierunki: wykorzystanie nanoprzewodów, struktur SOI, dielektryków o wysokiej przenikalności elektrycznej czy materiałów z wąską przerwą energetyczną. Wszystko po to, by stworzyć coś, co naukowcy nazywają „supertranzystorem dla zimna”.

To już nie tylko korekta architektury. To potencjalne otwarcie nowego rozdziału w projektowaniu elektroniki – dostosowanej nie do biurka inżyniera, ale do wnętrza kriostatu.

Od komputerów kwantowych po hyperscale

Choć obliczenia kriogeniczne kojarzą się głównie z komputerami kwantowymi, ich potencjalne zastosowania są znacznie szersze. Chipy zoptymalizowane do pracy w niskich temperaturach mogą znaleźć zastosowanie w obrazowaniu medycznym, misjach kosmicznych i – co najważniejsze – w klasycznych data center. Tam, gdzie instaluje się tysiące procesorów i zużywa megawaty mocy, każda oszczędność energii przekłada się na konkretne miliony dolarów rocznie.

Warto przy tym podkreślić, iż technologia nie jest w fazie czysto akademickiej. W badaniu bierze udział TSMC – największy producent chipów na świecie, dostarczający układy m.in. Apple, AMD i Nvidii. To sygnał, iż temat nie jest już tylko naukową ciekawostką, ale realnym kierunkiem rozwoju branży półprzewodników.

Co to oznacza dla rynku IT?

Zimne chipy nie trafią jutro na rynek, ale długofalowo mogą okazać się odpowiedzią na kilka jednoczesnych wyzwań: ograniczenia prawa Moore’a, energetyczne potrzeby AI i rosnące koszty operacyjne centrów danych. Ich wdrożenie będzie wymagało nie tylko rewolucji materiałowej, ale i zmiany w projektowaniu infrastruktury IT – od chłodzenia po integrację elektroniki niskotemperaturowej.

Jednak warto obserwować ten kierunek z bliska. Bo jeżeli obecne tempo wzrostu zapotrzebowania na moc obliczeniową się utrzyma, sektor IT będzie musiał sięgnąć po każde dostępne narzędzie, by ograniczyć swoją energochłonność – choćby jeżeli oznacza to zejście do temperatur znanych dotąd głównie z laboratoriów fizyki kwantowej.

Idź do oryginalnego materiału