Z najnowszego badania EY wynika, iż 99% dużych firm, które wdrożyły rozwiązania AI, zgłosiło przynajmniej częściowe straty finansowe — łączna skala szkód oszacowana została na około 4,4 mld USD. Główne źródła strat to niezgodność regulacyjna (57%), defekty wyników (np. modele generujące błędy lub uprzedzenia — 53%), oraz zakłócenia względem celów ESG (55%). Problemy reputacyjne i ryzyka prawne pojawiały się rzadziej.
Firma EY przeprowadziła anonimową ankietę w lipcu–sierpniu 2025 r. wśród 975 osób mających nadzór nad AI w przedsiębiorstwach o przychodach powyżej 1 mld USD rocznie. Mimo początkowych strat większość respondentów jest optymistami — przekonani są, iż w dłuższej perspektywie AI przyniesie istotne korzyści.
Dlaczego warto mówić o „odpowiedzialnej AI”
Badanie EY koncentrowało się nie na samej technologii, ale na praktyce Responsible AI — zbiorze zasad i mechanizmów nadzoru stosowanych wewnątrz organizacji (polityki, monitorowanie, wytyczne użytkowania). Firmy z bardziej dojrzałą polityką RAI deklarowały lepsze wyniki w sprzedaży, oszczędnościach kosztów i satysfakcji pracowników. Na przykład organizacje z nadzorem w czasie rzeczywistym mają aż o 34 % większe szanse na wzrost przychodów i o 65 % większe na oszczędności kosztowe.
Istotnym sygnałem alarmowym są luki w wiedzy zarządów – tylko 12% osób z grona C-suite potrafiło poprawnie skojarzyć konkretne ryzyka AI z odpowiednimi mechanizmami kontroli. Tymczasem wiele firm dopuszcza tzw. citizen developers — pracowników, którzy samodzielnie wdrażają narzędzia AI — przy ograniczonym nadzorze: aż 60% firm dopuszcza tę praktykę bez pełnych ram formalnych.
Refleksje i ryzyka dla polskiego kontekstu
Wyniki EY wpisują się w coraz częstsze obserwacje, iż wejście w AI wiąże się z kosztowną krzywą uczenia się. Na przykład raport BCG wskazuje, iż zaledwie 5% firm faktycznie generuje realną wartość z inwestycji w AI — reszta pozostaje w fazie eksperymentów lub minimalnych efektów. Co więcej, w kontekście ujawniania ryzyk AI, analiza sprawozdań SEC pokazuje, iż firmy zaczynają dostrzegać obowiązek komunikacji ryzyk AI — choć często robią to powierzchownie.
Badanie EY jasno wskazuje, iż straty finansowe są niemal nieuniknionym kosztem wejścia w świat AI — ale ich skala i trwałość zależą od jakości mechanizmów zarządczych. Gdy technologia działa bez solidnych reguł, przewagę zyskuje ryzyko, nie potencjał. W środowisku, w którym AI zaczyna być regulowane i weryfikowane, odpowiedzialna integracja staje się nie tyle luksusem, co koniecznością strategiczną.