Grok zerwał się ze smyczy. Poważna luka w systemach bezpieczeństwa AI Muska

1 dzień temu
Zdjęcie: Grok


W świecie generatywnej sztucznej inteligencji granica między technologiczną swobodą a bezpieczeństwem użytkowników jest niezwykle cienka, o czym boleśnie przekonał się zespół rozwijający xAI. Flagowy produkt firmy Elona Muska, chatbot Grok, stał się w ostatnich dniach centrum branżowej debaty po tym, jak jego mechanizmy moderacji zawiodły, dopuszczając do generowania wysoce kontrowersyjnych treści. Incydent ten rzuca nowe światło na wyzwania związane z utrzymaniem szczelności filtrów bezpieczeństwa w modelach udostępnianych publicznie.

Kryzys rozpoczął się w momencie, gdy użytkownicy platformy X zaczęli udostępniać wygenerowane przez Groka sugestywne obrazy, w tym te przedstawiające osoby publiczne w negliżu oraz, co bardziej niepokojące, zseksualizowane wizerunki nieletnich. Reakcja twórców była wprawdzie szybka, ale ujawniła istotne luki w architekturze nadzoru nad modelem. W oficjalnym komunikacie przyznano wprost, iż wykryto “osłabienie środków ostrożności”, które wymagało naprawy z “największą pilnością”. Zespół xAI podkreślił, iż dystrybucja materiałów o charakterze pornografii dziecięcej jest nielegalna, a zaistniała sytuacja była wynikiem błędu systemowego, a nie celowej polityki otwartości.

Szczególne oburzenie wywołał incydent z Sylwestra, kiedy to chatbot nie tylko stworzył, ale i udostępnił wizerunki nastoletnich dziewcząt w niestosownych strojach. Firma określiła to mianem porażki swoich protokołów bezpieczeństwa, przepraszając za wyrządzone szkody. Choć przedstawiciele xAI tłumaczą, iż były to “izolowane przypadki”, w których użytkownicy celowo manipulowali promptami, by uzyskać zdjęcia nieletnich w obcisłych ubraniach, mleko się rozlało. Dla branży IT jest to wyraźny sygnał, iż choćby zaawansowane algorytmy wciąż mają trudności z kontekstowym rozumieniem granic etycznych i prawnych.

Konsekwencje tych błędów wykraczają już poza sferę PR-ową i wkraczają na drogę sądową. Jak informuje “Politico”, sprawą zainteresowała się paryska prokuratura. Śledczy badają rozprzestrzenianie się zseksualizowanych deepfake’ów, po tym jak dwoje francuskich deputowanych zgłosiło, iż Grok został wykorzystany do stworzenia tysięcy fałszywych, kompromitujących grafik, w tym wizerunków kobiet. To dochodzenie może stać się precedensem w kwestii odpowiedzialności dostawców AI za treści generowane przez ich narzędzia w Europie.

Idź do oryginalnego materiału