Świat cyberbezpieczeństwa wkracza w nowy, niepokojący etap: sztuczna inteligencja, dotychczas uważana za sprzymierzeńca obrony, staje się potężnym narzędziem w rękach przestępców. Z najnowszego raportu Check Point Software Technologies wynika, iż cyberataki wspierane przez AI osiągnęły niespotykaną dotąd skalę i precyzję. Dzięki nowym technologiom hakerzy są skuteczniejsi niż kiedykolwiek wcześniej. A to dopiero początek, uważają eksperci.
Cyberprzestępcy nie tylko nadążają za tempem rozwoju AI, ale w pewnym sensie zaczynają je wyprzedzać. Po stworzeniu WormGPT – modelu LLM wyszkolonego do celów „blackhat” (tj. zastosowań nielegalnych) – pojawił się jeszcze groźniejszy gracz: Xanthorox AI. To w pełni autonomiczny, modularny system działający offline, wyposażony w pięć wyspecjalizowanych modeli AI, które samodzielnie tworzą złośliwe oprogramowanie, prowadzą rozpoznanie, manipulują ludźmi i koordynują ataki bez jakiejkolwiek zewnętrznej kontroli.
Analitycy firmy Check Point Software zaważają, iż poczynania darknetowych programistów nie jest już eksperyment. Żyjemy w rzeczywistości, w której cyberprzestępcy dysponują narzędziami przypominającymi wyspecjalizowane zespoły operacyjne, w całości opartymi na AI.
Phishing 2.0: bezbłędny, błyskawiczny i… nie do wykrycia
Wg bieżących danych, aż 67,4% globalnych incydentów phishingowych w 2024 roku było wspieranych przez sztuczną inteligencję. Aż trudno uwierzyć, ale AI generuje dziś maile phishingowe tak perfekcyjne, iż nie sposób odróżnić ich od legalnej korespondencji firmowej. Skuteczność? choćby 54% kliknięć w linki w testach na ludziach. To wzrost o 350% w porównaniu do tradycyjnych ataków!
Przykładem jest węgierski oddział dużej europejskiej sieci handlowej, który w lutym 2024 r. stracił 15,5 mln euro przez wiadomości e-mail stworzone przez AI, które idealnie odwzorowywały styl i układ wcześniejszej korespondencji. Filtry antyspamowe nie miały żadnych szans.
Deepfake’i: sztuka oszustwa w nowym wymiarze
Gdy phishing to za mało, do gry wchodzą deepfake’i. W Hongkongu w styczniu 2024 r. oszuści wykorzystali wideo z wygenerowanym syntetycznie CFO, by podczas fałszywego spotkania na Teamsach przekonać pracownika do przelewu 25 milionów dolarów. W Zjednoczonych Emiratach Arabskich, dzięki deepfake’owi głosu, wyłudzono 35 mln dolarów. W Wielkiej Brytanii z kolei oszuści próbowali podszyć się pod CEO dzięki fałszywego konta WhatsApp i zmanipulowanego wideo z YouTube.
Powyższe historie nie są scenariuszami filmowymi. To fakty i coraz częściej codzienność działów IT oraz finansowych na całym świecie.
AI jako superanalizator danych. Spear-phishing na nowym poziomie
Sztuczna inteligencja analizuje dziś dane z mediów społecznościowych, rejestrów publicznych i wycieków z błyskawiczną prędkością. Potrafi przewidzieć, kiedy najlepiej uderzyć, jakim tonem pisać, kogo podszyć się pod dyrektora i jak zainfekować sieć wewnętrzną.
W zeszłym roku w Indiach doszło do ataku spear-phishingowego, w którym AI sklonowała styl wypowiedzi CEO i wykorzystała oficjalne szablony firmowe, by stworzyć fałszywy portal logowania. W efekcie cyberprzestępcy uzyskali dostęp do danych finansowych i setek naruszonych kont.
Co dalej?
Jeśli dziś myślimy, iż sztuczna inteligencja chroni nas przed atakami, to jutro może się okazać, iż to właśnie AI jest naszym największym wrogiem. Eksperci Check Pointa uważają, iż to dopiero początek nowego wyścigu zbrojeń. Kto szybciej wykorzysta AI, ten przejmie kontrolę. Instytucje powinny przestać myśleć o AI tylko w kategoriach wsparcia i strażnika bezpieczeństwa oraz zacząć rozumieć, jak bardzo może być ona bronią ofensywną.
Źródło: Check Point