Coraz częściej pojawiają się apele o regulację tej technologii. Decydenci, zarówno w Stanach Zjednoczonych, jak i w Unii Europejskiej, intensywnie pracują nad prawnymi ramami, które miałyby chronić społeczeństwo przed potencjalnymi nadużyciami ze strony systemów AI. Jednak według naukowców z wiodących uniwersytetów, takich jak Princeton, wprowadzenie zbyt restrykcyjnych regulacji może przynieść skutek odwrotny do zamierzonego.
Regulacje mogą hamować postęp
Badacze, w tym Arvind Narayanan, profesor na Uniwersytecie Princeton, oraz jego doktorant Sayash Kapoor, zwracają uwagę na to, iż nadmierne ograniczenia dostępu do sztucznej inteligencji mogą utrudniać prace inżynierom, co w efekcie hamowałoby postęp technologiczny. W opinii tych ekspertów, zamiast ograniczać rozwój AI poprzez regulacje, lepiej byłoby skupić się na wzmacnianiu obrony użytkowników przed możliwymi zagrożeniami.
Jednym z przykładów, który przytaczają badacze, jest problem oszustw typu phishing, gdzie AI może zostać wykorzystana do tworzenia realistycznie brzmiących wiadomości e-mail, mających na celu wyłudzenie danych. Zamiast ograniczać dostęp do systemów AI, efektywniejszym rozwiązaniem byłoby według nich zwiększenie świadomości użytkowników i rozwój narzędzi obronnych, które skutecznie neutralizowałyby takie zagrożenia.
Otwarte i zamknięte modele AI
Jednym z kluczowych aspektów debaty nad regulacją AI jest różnica między modelami otwartymi a zamkniętymi. Modele otwarte są dostępne publicznie, co pozwala społeczności badawczej na wgląd w ich działanie i modyfikacje. Z kolei modele zamknięte pozostają w pełni kontrolowane przez ich twórców. Istnieje również trzecia kategoria – hybrydowe modele, które łączą elementy otwartości i zamknięcia.
Różnica między tymi modelami ma istotne znaczenie w kontekście regulacji. Modele otwarte mogą, zdaniem niektórych, stanowić większe ryzyko, gdyż dostęp do nich może prowadzić do ich nadużywania w celach złośliwych, takich jak tworzenie fałszywych informacji czy manipulowanie danymi. Jednak według Narayanana i Kapooora, nie ma jednoznacznych dowodów na to, iż otwarte modele są bardziej niebezpieczne niż zamknięte. Co więcej, choćby zamknięte systemy mogą być narażone na przenikanie przez osoby trzecie.
Zamiast ograniczeń – odpowiedzialność twórców
Eksperci podkreślają, iż zamiast wprowadzać sztywne regulacje blokujące dostęp do sztucznej inteligencji, bardziej efektywne może okazać się wprowadzenie mechanizmów odpowiedzialności twórców. jeżeli modele AI zostaną wykorzystane do nadużyć, ich twórcy mogliby ponosić współodpowiedzialność za szkody. W ten sposób można by wprowadzić dodatkową warstwę zabezpieczeń, nie ograniczając jednocześnie dostępu do innowacyjnych narzędzi.
Narayanan i Kapoor sugerują, iż skupienie się na środkach obronnych, a nie ograniczeniach, pozwoliłoby na zrównoważony rozwój technologii, jednocześnie chroniąc użytkowników przed potencjalnymi zagrożeniami. Rozwój AI jest dynamiczny i zróżnicowany, a odpowiedzialność za jego prawidłowe wykorzystanie nie powinna spoczywać jedynie na regulacjach, ale także na etycznym podejściu twórców i użytkowników technologii.