Algorytm strachu, czy strach przed algorytmem?

1 rok temu

Czy algorytmy nas dyskryminują? jeżeli tak, to jak temu zapobiec? Czym jest adekwatnie dyskryminacja? W jaki sposób tworzone są algorytmy i gdzie mogą znaleźć zastosowanie? Jak zapobiec manipulacjom decyzjami podejmowanymi przez maszyny? Te oraz inne kwestie poruszyli uczestnicy panelu dyskusyjnego pt. „Algorytm strachu, czy strach przed algorytmem?” 7 września podczas Forum Ekonomicznego w Karpaczu.

O problemach nowych technologii dyskutowali: Lauri Tankler – Kierownik Koordynacji Badań i Rozwoju w estońskim Urzędzie ds. Ochrony Informacji; Jan Kreft – profesor Politechniki Gdańskiej; Andres Kütt – ekspert Cyber4Dev z Estonii; Attila Menyhárd – wykładowca na węgierskim Uniwersytecie Loránda Eötvösa; Inez Okulska – Dyrektor Departamentu Innowacji i Technologii NASK. Moderatorem spotkania był Witold Tabaka – redaktor portalu Capital24.tv.

Rozwój branży cyfrowej w ostatnich latach niesamowicie przyśpieszył. Eksperci dostrzegają jej niemal nieograniczone możliwości, a z drugiej strony ostrzegają przed zagrożeniami i dylematami natury etycznej.


Attila Menyhárd, ekspert ds. relacji prawa ze sztuczną inteligencją, podkreślił, iż problem polega na tym, iż na poziomie społeczeństwa oraz w środowisku prawniczym nie ma zgody na to, czym jest adekwatnie dyskryminacja. Nie ma też zgody w tym temacie wśród matematyków, którzy mówią, iż o ile dane zjawisko potwierdzają statystyki, jest to wystarczające uzasadnienie. Zdaniem panelisty dyskryminacja to coś, co powoduje społeczne wykluczenie, ale prawnicy i matematycy powinni dojść do konsensusu i opracować akceptowalną przez wszystkich definicję, która znajdzie zastosowanie przy tworzeniu algorytmów. Należy też zastanowić się nad tym, czy to sam produkt ma być zatwierdzany czy proces jego wytwarzania. Jak z kwestią potencjalnego dyskryminowania radzi sobie estoński rząd oraz o sukcesach na tym polu mówił Lauri Tankler – Kierownik Koordynacji Badań i Rozwoju w estońskim Urzędzie ds. Ochrony Informacji. Stwierdził on jasno, iż niebezpieczeństwo bycia dyskryminowanym np. w trakcie ubiegania się o udzielenie kredytu bankowego, było równie duże, kiedy obywatel Estonii musiał udać się do banku i nawiązać kontakt z jego pracownikiem, ponieważ ludzie mogą kierować się osobistymi uprzedzeniami. Zdaniem panelisty to właśnie od czasów, kiedy w bankach zaczęto wykorzystywać algorytmy i cyfryzować usługi osobista dyskryminacja została w znacznym stopniu ograniczona. A potencjalne problemy w tym obszarze powinno rozwiązywać wspólnymi ograniczeniami nakładanymi przez Unię Europejską na duże podmioty cyfrowe, takie jak Google, aby sposób ich działania oraz zbierania danych o użytkownikach był bardziej przejrzysty.


Ponadto człowiek, o którym są zbierane informacje przez algorytm w danej instytucji lub firmie powinien na własne żądanie mieć dostęp do informacji nt. tego, na podstawie jakich danych, które zebrał np. bank została wydana decyzja o udzieleniu kredytu lub odmowie jego udzielenia.


Dyrektor Departamentu Innowacji i Technologii NASK, Inez Okulska stwierdziła, iż problemem nie jest sama sztuczna inteligencja oraz algorytm, ale to do jakich celów wykorzystują go ludzie.


Algorytmy predykcyjne w najprostszym wydaniu uczą się na danych z przeszłości. jeżeli ludzie nieświadomie popełniali błędy, nowy algorytm będzie się na nich wzorował” – mówiła na panelu Inez Okulska. Można więc powiedzieć, iż o ile algorytm został stworzony przez ludzi, którzy w jakiś sposób byli uprzedzeni, to prawdopodobne jest, iż zawarli swoje uprzedzenia czy dyskryminujące poglądy w systemie. Dlatego tak istotne są etyka oraz adekwatne analizy już na etapie projektowania algorytmu. Zaproszeni goście zastanawiali się też jak algorytmy mogą wpłynąć na zbliżające się w Polsce wybory i co należałby zrobić, aby ograniczyć ten wpływ. Jednak jednym z najciekawszych pytań skierowanym do panelistów przez moderatora, było pytanie o to, czego najbardziej boją się w sztucznej inteligencji? Inez Okulska odpowiedziała, iż to nie sztucznej inteligencji się boi, a ludzi oraz tego jak użyją algorytmów, jakie prawa im przypiszą, jakie krytyczne procesy będą próbowali nimi zastąpić.


Attila Menyhárd jako prawnik bałby się stworzenia iluzji, iż jesteśmy w stsnie rozwiązać nasze problemy ze sztuczną inteligencją oraz nadmiernych regulacji prawnych z tym związanych. Lauri Tankler obawia się natomiast braku systemu zapewniającego przejrzystość, a uzasadniając jej potrzebę podkreśla: „Dopóki nie będzie systemu zapewniającego przejrzystość bardzo boję się swoich błędów z przeszłości, bo kiedy algorytm będzie się o mnie uczył, o tym iż w niewłaściwym czasie poszedłem w niewłaściwe miejsce, jeżeli te dane zostaną zebrane i wykorzystane, rodzi to strach nie tylko przed przeszłością, ale i ludźmi, którzy oczekiwaliby, iż dam im drugą szansę”.


Andres Kütt nie czuje strachu przed algorytmami podobnie, jak Inez Okulska. To, co budzi jego niepokój to łączenie ze sobą złożonych rzeczy, procesów i zjawisk np. algorytmów, ludzi i przedsiębiorstw. Owa złożoność może nastręczać wielu problemów i negatywnych skutków.

Idź do oryginalnego materiału