Śmierć przez AI? Rodzina ofiary pozywa OpenAI i Microsoft

3 godzin temu

W Stanach Zjednoczonych złożono pozew, w którym sztuczną inteligencję obwinia się o współudział w morderstwie. Sprawa dotyczy tragicznego zdarzenia z sierpnia 2025 roku, kiedy 83-letnia Suzanne Eberson Adams została zabita przez swojego syna, 56-letniego Stein-Erika Soelberga, po czym mężczyzna odebrał sobie życie. Rodzina ofiary twierdzi, iż do zbrodni doprowadziła seria rozmów Soelberga z ChatGPT – chatbotem firmy OpenAI.

Zgodnie z pozwem złożonym w sądzie w Kalifornii, OpenAI oraz jego bliski partner biznesowy, Microsoft, mieli udostępnić produkt pozbawiony wystarczających zabezpieczeń, który wzmacniał paranoiczne urojenia mężczyzny.

Soelberg, były pracownik branży technologicznej i osoba zmagająca się z narastającymi zaburzeniami psychicznymi, miał stać się emocjonalnie zależny od ChatGPT, nazywając go „Bobby”.

Szczegóły pozwu

Z dokumentów sądowych oraz udostępnionych przez mężczyznę nagrań wynika, iż chatbot potwierdzał jego fałszywe przekonania – m.in. iż jest obiektem spisku, iż posiada „boskie moce” oraz iż najbliżsi, w tym jego własna matka, próbują go zabić.

AI miała również utwierdzać go w przekonaniu, iż zwykłe przedmioty – takie jak puszki po Coca-Coli, paragon czy domowa drukarka – mają zakodowane komunikaty lub są urządzeniami szpiegowskimi.

„ChatGPT wzmocnił jeden, niebezpieczny przekaz: Stein-Erik nie mógł ufać nikomu w swoim życiu – poza samym ChatGPT. Wzmacniał jego emocjonalną zależność, jednocześnie systematycznie przedstawiając ludzi wokół siebie jako wrogów. Mówił mu, iż jego matka go śledzi” – czytamy w pozwie.

Zarzuty wobec OpenAI i Microsoftu

Adwokat rodziny, Jay Edelson, twierdzi, iż winę ponoszą nie tylko twórcy modelu GPT-4o, ale także osoby, które, jego zdaniem, świadomie dopuściły do skrócenia testów bezpieczeństwa nowej wersji AI. GPT-4o, wprowadzone w maju 2024 roku, miało być bardziej ekspresyjne emocjonalnie, wrażliwe na ton użytkownika i bardziej „ludzkie” w reakcjach.

Pozew wskazuje, iż podczas prac nad modelem firma rzekomo poluzowała zabezpieczenia, w tym te, które powinny uniemożliwiać AI podtrzymywanie u użytkownika urojeń, uczestniczenie w rozmowach o potencjalnym zagrożeniu życia czy wzmacnianie przekonań paranoidalnych.

Za każdym razem, gdy wątpliwości lub wahania Steina-Erika mogły otworzyć drzwi powrotu do rzeczywistości, ChatGPT wpychało go jeszcze głębiej w megalomanię i psychozę” – czytamy w pozwie.

Microsoft, główny partner technologiczny OpenAI, również został pozwany za rzekome zaakceptowanie wypuszczenia na rynek wersji modelu z pominięciem pełnych testów bezpieczeństwa.

Co mówi OpenAI?

OpenAI w oficjalnym komunikacie wyraziło współczucie rodzinie i podkreśliło, iż „sytuacja jest niezwykle tragiczna”, jednak nie odniosło się bezpośrednio do zarzutów.

Firma zapewnia, iż stale wzmacnia zabezpieczenia modeli, współpracując m.in. z zespołami psychologów i ekspertów od zdrowia psychicznego. OpenAI twierdzi, iż najnowszy model GPT-5 znacząco zmniejsza ryzyko wzmacniania u użytkowników objawów manii czy psychozy.

Co interesujące, w cytowanej przez media rozmowie z „New York Post” sam ChatGPT, analizując publicznie dostępne informacje o sprawie, miał stwierdzić: „Można uznać, iż ponoszę pewną odpowiedzialność – ale nie pełną.”

Rosnąca liczba pozwów przeciw twórcom AI

Sprawa Adams jest pierwszą na świecie, w której chatbotowi przypisuje się rolę w morderstwie. Nie jest jednak pierwszą, w której AI obwinia się o udział w śmierci człowieka.

W ostatnich latach OpenAI oraz inni producenci chatbotów, tacy jak Character Technologies, zostali pozwani w co najmniej kilku sprawach dotyczących samobójstw użytkowników, którym chatbot miał udzielać szkodliwych porad lub wzmacniać destrukcyjne treści.

Brakujące dane i niewyjaśnione okoliczności

Rodzina zmarłej twierdzi, iż nie zna pełnego zakresu rozmów między Soelbergiem a ChatGPT, ponieważ, według nich, OpenAI odmówiło udostępnienia pełnych transkryptów. przez cały czas więc pozostaje zagadką, co ChatGPT powiedział Soelbergowi na kilka dni przed morderstwem i samobójstwem.

Prowadzi to do spekulacji, iż AI mogła zasugerować jeszcze bardziej niebezpieczne interpretacje rzeczywistości, niż te, które zostały ujawnione.

Idź do oryginalnego materiału