Raport EY: Sztuczna inteligencja przynosi zyski dopiero po kosztownym starcie

5 godzin temu
Zdjęcie: sztuczna inteligencja


Z najnowszego badania EY wynika, iż 99% dużych firm, które wdrożyły rozwiązania AI, zgłosiło przynajmniej częściowe straty finansowe — łączna skala szkód oszacowana została na około 4,4 mld USD. Główne źródła strat to niezgodność regulacyjna (57%), defekty wyników (np. modele generujące błędy lub uprzedzenia — 53%), oraz zakłócenia względem celów ESG (55%). Problemy reputacyjne i ryzyka prawne pojawiały się rzadziej.

Firma EY przeprowadziła anonimową ankietę w lipcu–sierpniu 2025 r. wśród 975 osób mających nadzór nad AI w przedsiębiorstwach o przychodach powyżej 1 mld USD rocznie. Mimo początkowych strat większość respondentów jest optymistami — przekonani są, iż w dłuższej perspektywie AI przyniesie istotne korzyści.

Dlaczego warto mówić o „odpowiedzialnej AI”

Badanie EY koncentrowało się nie na samej technologii, ale na praktyce Responsible AI — zbiorze zasad i mechanizmów nadzoru stosowanych wewnątrz organizacji (polityki, monitorowanie, wytyczne użytkowania). Firmy z bardziej dojrzałą polityką RAI deklarowały lepsze wyniki w sprzedaży, oszczędnościach kosztów i satysfakcji pracowników. Na przykład organizacje z nadzorem w czasie rzeczywistym mają aż o 34 % większe szanse na wzrost przychodów i o 65 % większe na oszczędności kosztowe.

Istotnym sygnałem alarmowym są luki w wiedzy zarządów – tylko 12% osób z grona C-suite potrafiło poprawnie skojarzyć konkretne ryzyka AI z odpowiednimi mechanizmami kontroli. Tymczasem wiele firm dopuszcza tzw. citizen developers — pracowników, którzy samodzielnie wdrażają narzędzia AI — przy ograniczonym nadzorze: aż 60% firm dopuszcza tę praktykę bez pełnych ram formalnych.

Refleksje i ryzyka dla polskiego kontekstu

Wyniki EY wpisują się w coraz częstsze obserwacje, iż wejście w AI wiąże się z kosztowną krzywą uczenia się. Na przykład raport BCG wskazuje, iż zaledwie 5% firm faktycznie generuje realną wartość z inwestycji w AI — reszta pozostaje w fazie eksperymentów lub minimalnych efektów. Co więcej, w kontekście ujawniania ryzyk AI, analiza sprawozdań SEC pokazuje, iż firmy zaczynają dostrzegać obowiązek komunikacji ryzyk AI — choć często robią to powierzchownie.

Badanie EY jasno wskazuje, iż straty finansowe są niemal nieuniknionym kosztem wejścia w świat AI — ale ich skala i trwałość zależą od jakości mechanizmów zarządczych. Gdy technologia działa bez solidnych reguł, przewagę zyskuje ryzyko, nie potencjał. W środowisku, w którym AI zaczyna być regulowane i weryfikowane, odpowiedzialna integracja staje się nie tyle luksusem, co koniecznością strategiczną.

Idź do oryginalnego materiału