OpenAI luzuje zasady ChatGPT – większa swoboda, ale wciąż z ograniczeniami

2 miesięcy temu
Zdjęcie: sztuczna inteligencja, ai, superinteligencja, openai


OpenAI wprowadza istotne zmiany w sposobie, w jaki ChatGPT podchodzi do tematów uważanych za kontrowersyjne. Dzięki nowemu podejściu chatbot zyska większą swobodę wypowiedzi i nie będzie już unikał trudnych pytań. To krok w stronę większej „wolności intelektualnej”, który umożliwia modelowi analizowanie, debatowanie i tworzenie treści bez wcześniejszych, arbitralnych ograniczeń.

Zmiany te zostały opisane w nowej sekcji specyfikacji modelu, w której OpenAI tłumaczy, jak szkoli swoje systemy AI. Firma zapewnia, iż ChatGPT nie będzie już stosował uników w przypadku politycznie wrażliwych pytań, a zamiast tego dostarczy kontekst i różne perspektywy.

Neutralność zamiast wolności absolutnej

Mimo rozszerzenia zakresu tematów, w których ChatGPT może się wypowiadać, OpenAI podkreśla, iż model przez cały czas będzie zachowywał neutralność. Oznacza to, iż chatbot nie będzie forsował jednej konkretnej opinii ani stawał po żadnej ze stron w sporach ideologicznych. Jego zadaniem ma być przedstawianie szerokiego spektrum poglądów i dostarczanie użytkownikowi pełnego obrazu tematu.

Jednocześnie OpenAI podkreśla, iż taka neutralność może być kontrowersyjna, zwłaszcza w kontekście tematów moralnie lub etycznie drażliwych. Dla niektórych użytkowników brak jednoznacznego potępienia określonych zjawisk może być problematyczny, ale firma utrzymuje, iż rolą AI jest dostarczanie informacji, a nie kształtowanie przekonań społecznych.

Granice wciąż istnieją

Pomimo większej swobody wypowiedzi, pewne ograniczenia przez cały czas obowiązują. ChatGPT nie będzie publikować treści obraźliwych, angażować się w działalność przestępczą ani celowo szerzyć dezinformacji. Jednak, jak pokazują badania, nie zawsze jest możliwe całkowite wyeliminowanie błędów czy manipulacji w modelach AI.

Amerykański trend i jego konsekwencje

Zmiany w podejściu OpenAI wpisują się w szerszy trend w amerykańskim sektorze technologicznym, gdzie wolność słowa jest traktowana bardzo szeroko. Mark Zuckerberg (Meta) zrezygnował z obowiązkowego fact-checkingu, a platforma X (dawniej Twitter) również stopniowo wycofała się z moderacji treści. Podczas gdy w Europie obowiązują przepisy takie jak Digital Services Act (DSA), mające na celu regulację treści online, w USA granice tego, co można powiedzieć, są znacznie bardziej płynne.

Firmy AI są często krytykowane przez środowiska prawicowe za rzekomą stronniczość ich modeli, które – ich zdaniem – unikają skrajnych wypowiedzi i promują „poprawność polityczną”. OpenAI argumentuje jednak, iż nie wynika to z cenzury, ale raczej z charakteru treści dostępnych w internecie, na których modele są trenowane.

Strategiczna decyzja OpenAI?

OpenAI oficjalnie zaprzecza, jakoby decyzja o zmianach była motywowana politycznie. Jednak warto zauważyć, iż firma współpracuje z rządem USA nad projektem Stargate – inicjatywą związana z bezpieczeństwem narodowym i sztuczną inteligencją. Złagodzenie ograniczeń ChatGPT może być również strategicznym ruchem, mającym na celu uniknięcie konfliktów politycznych.

Zmiany w ChatGPT to kolejny krok w kierunku bardziej otwartej sztucznej inteligencji. Pozostaje jednak pytanie, czy większa swoboda modelu przełoży się na lepszą jakość informacji, czy też stanie się kolejnym wyzwaniem w walce z dezinformacją w sieci.

Idź do oryginalnego materiału