Pierwszy bunt maszyn? Sztuczna inteligencja od Open AI nie pozwoliła się wyłączyć
Zdjęcie: AI sabotuje ludzkie polecenia i odmawia wyłączenia się.
Firma Palisade Research, specjalizująca się w bezpieczeństwie sztucznej inteligencji, przeprowadziła serię testów na najnowszym modelu ChatGPT o3 opracowanym przez OpenAI. Celem eksperymentu było sprawdzenie, czy model AI będzie przestrzegał polecenia wyłączenia się po wykonaniu określonych zadań. Okazuje się, iż AI z zaawansowanym rozumowaniem walczy o "życie".