Wyniki badania EY – Global Responsible AI Pulse – pokazują, że organizacje wykorzystujące odpowiedzialną AI – dzięki transparentnym zasadom, solidnemu wdrażaniu i silnemu zarządzaniu – wyprzedzają konkurencję w obszarach, w których korzyści są najtrudniejsze do osiągnięcia. Wzrost przychodów raportuje 54% firm, oszczędności finansowe zauważa 48% badanych, zaś 57% cieszy się satysfakcją pracowników. Ośmiu na dziesięciu (80%) respondentów widzi również poprawę wydajności i produktywności.
Z odpowiedzi ankietowanych – menedżerów odpowiedzialnych za sztuczną inteligencję w swojej organizacji – wynika, że firmy stosujące takie działania związane z AI jak komitety nadzorcze, czyli zespoły odpowiedzialne za etyczne, odpowiedzialne i strategiczne wykorzystanie technologii, odnotowują wyższe zyski i widzą mniej zagrożeń dla swojej działalności.
Rola tego typu organów będzie wyłącznie rosła, gdyż prawie wszystkie (99%) ankietowane przez EY firmy zgłosiły szkody finansowe z powodu incydentów związanych ze sztuczną inteligencją. Powodem strat były m.in. nieprzestrzeganie przepisów dotyczących sztucznej inteligencji (57%), negatywny wpływ na cele zrównoważonego rozwoju (55%) oraz nieobiektywność wyników rozwiązywanych przez AI zadań (53%).
Niemal dwie trzecie z nich (64%) oszacowało szkody na ponad milion dolarów. Z ostrożnych szacunków EY wynika, że średnia strata w gronie ankietowanych wyniosła 4,4 mln dolarów. Badanie dowodzi jednocześnie, że im więcej firma wdroży mechanizmów kontroli i wsparcia AI, tym niższe staje się ryzyko strat.
Ciągły nadzór to konieczność
– Odpowiedzialna implementacja AI zakłada trzy etapy, bez wybierania drogi na skróty. Zaczyna się od komunikowania jasnego zestawu zasad dotyczących wykorzystania AI, zarówno wewnątrz, jak i na zewnątrz organizacji. Następnie przechodzimy do etapu realizacji, podczas którego tworzone są mechanizmy kontroli m.in. uwzględniające rolę człowieka – „human in the loop” – a także kluczowe wskaźniki efektywności i szkolenia pracowników. Etap finalny to wdrożenie ciągłego nadzoru nad spójnością działań i zasad regulujących wykorzystanie AI – wyjaśnia Wojciech Niezgodziński, Partner EY Polska, Dział Zarządzania Ryzykiem Nadużyć.
W drugiej już fali badania EY – Global Responsible AI Pulse – pytano m.in. o postępy odpowiedzialnego wdrażania AI na tych trzech etapach. Szczególny nacisk położono na mechanizmy kontroli i wsparcia, wśród których zidentyfikowano 10 kluczowych kwestii. Są to m.in. komunikacja do pracowników, kooperantów, określone pryncypia, kwestie odpowiedzialności czy bezpieczeństwa. Z badania wynika, że firmy zaadaptowały średnio siedem z dziesięciu wspomnianych mechanizmów.
Odpowiedzialna AI: tak, to działa i przynosi korzyści
Wyniki badania wskazują, że 80% respondentów widzi poprawę wydajności i produktywności dzięki wdrożeniu odpowiedzialnej AI. Prawie tyle samo twierdzi, że sztuczna inteligencja pobudziła innowacje (79%) i wdrażanie technologii (81%), a także pomogła skrócić czas od prototypowania do wdrożenia (79%). Sztuczna inteligencja przyniosła poprawę wydajności w trzech kluczowych obszarach: satysfakcji pracowników (57%), wzrostu przychodów (54%) i oszczędności (48%).
Autorzy badania zauważają jednak, że te organizacje, które wdrażają środki zarządzania – w szczególności monitorowanie w czasie rzeczywistym i komitety nadzoru – znacznie częściej odnotowują poprawę wspomnianych czynników, niż te, które odpowiedzialnej AI nie implementują w ogóle.
Firmy, które w wyniku incydentów związanych z AI poniosły straty w wysokości ponad 10 milionów dolarów, deklarują średnio 4,5 na 10 prawidłowych mechanizmów kontroli. Organizacje, które zanotowały 1 milion dolarów szkód lub mniej, mają ich średnio 6,4.
– Systemy AI działają z coraz większą autonomią i złożonością, organizacje muszą więc priorytetowo traktować ich nadzór w czasie rzeczywistym. Ciągły monitoring i możliwości szybkiego reagowania są niezbędne do efektywnego skalowania tych technologii. Autonomiczny charakter sztucznej inteligencji wprowadza nowe ryzyka, które mogą szybko eskalować, co sprawia, że solidne mechanizmy kontroli są niezbędne, aby zapobiec kosztownym zakłóceniom procesów biznesowych zapewniając ich stabilność i bezpieczeństwo.– podkreśla Bartosz Pacuszka, Partner EY Polska, Lider zespołu AI Technology.