Choć sztuczna inteligencja ogólna (AGI) – systemy zdolne do nauki i rozumowania w różnych dziedzinach na poziomie ludzkim – jeszcze nie istnieje, Sam Altman, dyrektor generalny OpenAI, już kieruje wzrok ku przyszłości, mówiąc o “superinteligencji”. Termin ten odnosi się do AI, która przewyższa ludzką inteligencję w niemal każdej dziedzinie, mając potencjał do znaczących postępów w nauce i technologii.
Altman, który przewodzi OpenAI, twierdzi, iż firma już wie, jak zbudować AGI, a celem OpenAI jest teraz rozwój superinteligencji. W jego opinii, takie narzędzia mogłyby przyspieszyć odkrycia naukowe i innowacje, przynosząc znaczne korzyści ekonomiczne i społeczne.
Choć perspektywa stworzenia AI o wyższej inteligencji niż człowiek może wydawać się odległa, Altman jest przekonany, iż w ciągu kilku lat osiągnięcia w tej dziedzinie będą wyraźnie widoczne. Jak wynika z raportów, OpenAI opracowało pięciostopniowy system oceny postępów w rozwoju superinteligentnej AI. Pierwszy etap obejmuje już dostępną konwersacyjną sztuczną inteligencję, kolejny to rozumowanie, a trzeci to autonomia, czyli agenci działający w imieniu użytkownika. Celem jest stworzenie AI, która sama będzie w stanie rozwijać innowacje.
Jednak nie wszystko w tej wizji jest jednoznacznie pozytywne. W przeszłości OpenAI wyraziło obawy dotyczące potencjalnych zagrożeń związanych z superinteligencją. Firma przyznała, iż kontrolowanie tak zaawansowanej AI stanowi ogromne wyzwanie, a w kontekście bezpieczeństwa technologii, OpenAI rozwiązało zespoły zajmujące się nadzorem nad AI. Te obawy podkreślają konieczność dalszego rozwoju metod kontrolowania i nadzorowania AI, aby uniknąć nieprzewidywalnych i niepożądanych skutków.
Choć Altman pozostaje optymistą, mówi, iż to, co teraz może brzmieć jak science fiction, niedługo stanie się rzeczywistością. Jednak wiele pytań dotyczących bezpieczeństwa i nadzoru nad tak potężną technologią wciąż pozostaje otwartych.