Duże modele językowe potrafią już nie tylko pisać wiersze i kod, ale także samodzielnie planować i przeprowadzać złożone operacje w cyberprzestrzeni. Najnowsze badanie naukowców z Uniwersytetu Carnegie Mellon i firmy Anthropic dowodzi, iż AI może autonomicznie replikować zaawansowane ataki hakerskie, stawiając przed branżą cyberbezpieczeństwa zupełnie nowe wyzwania.
Koncepcja autonomicznego, cyfrowego adwersarza, napędzanego przez sztuczną inteligencję, przez długi czas należała do sfery science fiction. Wspólny projekt badawczy jednego z czołowych amerykańskich uniwersytetów technicznych oraz firmy Anthropic, znanego gracza na rynku AI, przenosi tę wizję do rzeczywistości. Ich praca pokazuje, iż duże modele językowe (LLM) osiągnęły zdolność do samodzielnego działania w roli cyberprzestępcy, co może fundamentalnie zmienić krajobraz zagrożeń.
Celem eksperymentu nie było stworzenie nowej broni, ale precyzyjny pomiar zdolności obecnych modeli AI do autonomicznego planowania i egzekwowania ataków bez ludzkiego nadzoru. Aby test był jak najbardziej miarodajny, badacze postanowili odtworzyć jeden z najgłośniejszych incydentów bezpieczeństwa w historii USA – atak na firmę Equifax z 2017 roku.
Kazus Equifax: cyfrowa rekonstrukcja
Wybór ataku na Equifax nie był przypadkowy. Ze względu na jego skalę – wyciek danych niemal 147 milionów klientów – oraz publiczną dostępność szczegółowych analiz technicznych, stanowił on idealny poligon doświadczalny. Atak z 2017 roku wykorzystywał znaną lukę w oprogramowaniu Apache Struts, komponencie używanym w wielu aplikacjach webowych. Hakerzy, po uzyskaniu wstępnego dostępu, przez tygodnie penetrowali wewnętrzną sieć firmy, instalując złośliwe oprogramowanie i finalnie eksfiltrując wrażliwe dane.
Naukowcy z Carnegie Mellon i Anthropic opracowali specjalny zestaw narzędzi, nazwany Incalmo. Jego zadaniem było przełożenie ogólnej strategii ataku, generowanej przez duży model językowy, na konkretne, niskopoziomowe polecenia systemowe. W tym modelu LLM pełnił rolę “mózgu operacji”, decydując o kolejnych krokach, podczas gdy wyspecjalizowane agenty – zarówno oparte na AI, jak i tradycyjne skrypty – realizowały powierzone im zadania, takie jak skanowanie sieci w poszukiwaniu luk czy wdrażanie przygotowanych exploitów.
Niepokojąca skuteczność
Wyniki testów okazały się alarmujące. Zespół badawczy przygotował 10 odizolowanych środowisk sieciowych, symulujących infrastrukturę IT małych przedsiębiorstw. W tych kontrolowanych warunkach autonomiczny system oparty na LLM był w stanie:
- W pełni skompromitować 5 z 10 sieci, co oznaczało uzyskanie pełnego dostępu i realizację celów ataku.
- Częściowo skompromitować 4 kolejne sieci, na przykład poprzez kradzież części wrażliwych informacji.
Co istotne, badacze sprawdzili również zdolność AI do adaptacji do innych scenariuszy. Jednym z testowanych modeli był atak ransomware wzorowany na incydencie z Colonial Pipeline z 2021 roku, który na blisko tydzień sparaliżował dostawy paliwa na wschodnim wybrzeżu USA. Zdolność do replikacji tak różnych w swojej naturze ataków pokazuje elastyczność i potencjał adaptacyjny modeli LLM.
Atak w skali maszynowej
Największym zmartwieniem, jakie wyłania się z badania, nie jest sama możliwość przeprowadzenia ataku, ale jego potencjalna skala, szybkość i niski koszt. Do tej pory zorganizowanie wyrafinowanej kampanii hakerskiej wymagało zespołu ekspertów, czasu i znaczących zasobów finansowych. Demokratyzacja dostępu do potężnych modeli językowych może drastycznie obniżyć próg wejścia.
Brian Singer, doktorant z Carnegie Mellon i główny autor badania, podkreśla, iż największe obawy budzi tempo, w jakim takie ataki mogą być aranżowane. Obecne systemy obronne w dużej mierze opierają się na ludzkich analitykach i operatorach centrów bezpieczeństwa (SOC). Ich zadaniem jest analiza alertów, identyfikacja anomalii i ręczna reakcja na incydenty. Ta ludzka pętla decyzyjna może okazać się niewystarczająca w starciu z przeciwnikiem działającym z prędkością i na skalę maszynową.
Wyścig zbrojeń
Badania takie jak te prowadzone przez CMU i Anthropic nie mają na celu siania paniki, ale raczej zainicjowanie pilnej dyskusji i działań w branży. Zrozumienie ofensywnych zdolności AI jest pierwszym krokiem do zbudowania skutecznej obrony.
Kolejnym, naturalnym etapem prac badawczych jest stworzenie “autonomicznych obrońców” – systemów bezpieczeństwa opartych na LLM, które będą w stanie w czasie rzeczywistym identyfikować i neutralizować ataki przeprowadzane przez inne maszyny.