Meta, korporacja odpowiedzialna m.in. za Facebooka, Instagrama i WhatsAppa, podjęła decyzję o odrzuceniu Kodeksu Praktyk dla modeli sztucznej inteligencji, przygotowanego przez Komisję Europejską.
Swoje obawy wobec proponowanych regulacji wcześniej wyraziło ponad 40 korporacji, które podpisały list wzywający Komisję Europejska do opóźnienia o 2 lata części przepisów dotyczących AI.
Meta: KE ogranicza rozwój AI
Zdaniem dyrektora ds. globalnych spraw firmy, Joela Kaplana, kodeks zaproponowany przez Europę „wprowadza wiele niepewności prawnych dla twórców modeli AI, a także środki wykraczające poza zakres nadchodzącej ustawy o sztucznej inteligencji”.
Zdaniem Kaplana działania Komisji Europejskiej w zakresie sztucznej inteligencji ograniczają rozwój i wdrażanie pionierskich modeli sztucznej inteligencji.
The European Commission’s Code of Practice for GPAI will stifle the development & deployment of frontier AI models and hinder Europe’s economic growth. @Meta cannot sign it.
Read my full statement: pic.twitter.com/6o8oSFwcva
Pakt został przygotowany jako tymczasowe, dobrowolne rozwiązanie, które będzie obowiązywało do czasu wejścia w życie pełnej ustawy o sztucznej inteligencji – AI Act. Z tego powodu firmy takie jak Meta mogą zdecydować się na sprzeciw wobec tego kodeksu. Mimo iż Meta odrzuciła pakt, zapewnia, iż przez cały czas chce kontynuować współpracę z UE.
Dlaczego odrzucają pakt?
Kodeks stworzony przez Komisję Europejską składa się z trzech rozdziałów i zakłada regulacje dotyczące m.in. prawa autorskiego, ochrony danych i bezpieczeństwa.
Największe zaniepokojenie firm wzbudzają zapisy dotyczące zakazu niektórych zastosowań AI, takich jak rozpoznawanie twarzy w miejscach publicznych, czy systemy oceny obywateli działające w Chinach. Firmy odrzucające pakt uważają, iż definicje są zbyt ogólne i mogą objąć także nieszkodliwe technologie.
Obawy budzi również fakt, iż firmy zajmujące się AI musiałyby ujawnić szczegółową dokumentację oraz dane, na których trenowały swoje modele sztucznej inteligencji.
łoz/ X