Fałszywe ChatGPT i InVideo AI. Tak hakerzy infekują systemy ransomware

3 godzin temu
Zdjęcie: Phishing, cyberbezpieczeństwo, AI, cyberataki


Rosnące zainteresowanie narzędziami opartymi na sztucznej inteligencji, takimi jak ChatGPT czy InVideo AI, nie uszło uwadze cyberprzestępców. Jak wynika z najnowszego raportu Cisco Talos, hakerzy coraz częściej wykorzystują boom na AI jako przynętę do infekowania komputerów ransomware i innym złośliwym oprogramowaniem.

Zamiast klasycznych kampanii phishingowych, oszuści tworzą fałszywe strony i instalatory podszywające się pod znane narzędzia AI. W jednym z przypadków pod nazwą „ChatGPT 4.0” kryło się ransomware Lucky_Gh0$t, które szyfruje pliki, usuwa większe dane i utrudnia odzyskanie systemu. Inne przypadki to złośliwe wersje narzędzi InVideo AI (z malware Numero) i Nova AI (z ransomware CyberLock), w których infekcja prowadzi do utraty dostępu do danych, uszkodzenia systemu lub żądania okupu – choćby do 50 tys. dolarów w kryptowalucie Monero.

Wspólnym mianownikiem tych ataków jest próba ominięcia zabezpieczeń poprzez wykorzystanie legalnych komponentów AI oraz manipulacja zaufaniem użytkowników. Cyberprzestępcy celują zarówno w osoby prywatne, jak i firmy szukające nowoczesnych rozwiązań do automatyzacji, generowania treści czy konwersji leadów.

Boom na AI to nie tylko szansa dla innowatorów, ale także nowe pole do nadużyć. W erze „AI dla wszystkich” użytkownicy muszą nauczyć się rozpoznawać fałszywe obietnice i krytycznie weryfikować źródła pobieranych aplikacji. Złota zasada pozostaje aktualna: jeżeli coś wygląda zbyt dobrze, by było prawdziwe — prawdopodobnie takie właśnie jest.

Idź do oryginalnego materiału