czwartek, 28 sierpnia, 2025

Nasze serwisy:

Więcej

    Badanie EY: Konsumenci jedno, członkowie zarządów drugie. Brak zrozumienia potrzeb klientów w sprawie AI

    Zobacz również

    Badanie EY – AI Pulse – ujawnia rozdźwięk między firmami, a konsumentami w kwestii sztucznej inteligencji. Mimo że 63% członków zarządu deklaruje zrozumienie obaw klientów, tylko 23% z nich widzi problem w braku odpowiedzialności za negatywne użycie AI. Ponadto 51% respondentów zgodziła się że opracowanie ram zarządzania dla tej technologii jest dla ich organizacji wyzwaniem. Tymczasem 58% konsumentów uważa, że brak odpowiedzialności przedsiębiorstw za szkodliwe wykorzystanie AI to problem.

    - Reklama -


    Najnowsze badanie EY – AI Pulse – rzuca światło na znaczące różnice w postrzeganiu kwestii związanych z odpowiedzialnym rozwojem sztucznej inteligencji pomiędzy zarządami firm a konsumentami. Mimo że większość (63%) członków zarządu badanych przedsiębiorstw (CxO) uważa, że ich odczucia dotyczące AI są zbliżone do klientów, to szczegółowe wyniki wskazują na wyraźne rozbieżności.

    Jeden z kluczowych obszarów, w którym widoczna jest ta dysproporcja, to kwestia odpowiedzialności za negatywne lub szkodliwe wykorzystanie AI. Zaledwie 23% ankietowanych członków zarządów uważa, że brak odpowiedzialności za takie incydenty stanowi problem. W tym samym czasie, aż 58% konsumentów wskazuje ten obszar jako znaczącą obawę, co oznacza aż 35 p.p. różnicy.


    Znaczące rozbieżności zaobserwowano również w odniesieniu do innych kluczowych aspektów odpowiedzialnego wdrażania AI:

    • Naruszenia systemów bezpieczeństwa AI: tylko 32% członków zarządów postrzega to jako problem, w porównaniu do 64% konsumentów.
    • Niewystarczające zabezpieczenia prywatności: 31% wśród CxO wobec 61% konsumentów.
    • Nieprzestrzeganie regulacji i przepisów dotyczących AI: 23% wśród CxO wobec 52% konsumentów.

    – Rozdźwięk pomiędzy obawami użytkowników oraz kadry zarządzającej może wynikać z różnych kwestii, jak niejasna komunikacja pomiędzy działem technologicznym a zarządem, bądź zbytnią pewnością siebie i wiarą we wdrożone rozwiązania. Przedsiębiorstwa, które jako pierwsze rozpoczęły procesy implementacyjne często robiły „krok w nieznane”, więc, jak wielu innowatorów, skupiły się na potencjale AI do uzyskania przewagi konkurencyjnej, a kwestie związane z ryzykiem mogły mieć dużo mniejszy priorytet. Warto jednak zaznaczyć – podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom – mówi Radosław Frańczak, Consulting Sales Leader, EY Polska.

    Im większa adopcja, tym większe rozbieżności
    Badanie EY pokazuje, że poziom zaawansowania we wdrażaniu sztucznej inteligencji w firmach ma istotny wpływ na to, jak zarządy postrzegają swoją zgodność z oczekiwaniami konsumentów. Firmy, które dopiero integrują AI, wykazują znacznie większą ostrożność. Tylko nieco ponad połowa (51%) członków zarządu z firm będących w fazie implementacji AI uważa, że ich postawy są zbieżne z poglądami konsumentów. To znacząca różnica w porównaniu do 71% członków zarządu z organizacji, w których sztuczna inteligencja jest już wdrożona w działalności biznesowej.

    Dodatkowo ponad połowa (51%) respondentów zgodziła się że opracowanie ram zarządzania dla obecnych technologii AI jest dla ich organizacji wyzwaniem. Jednocześnie, zauważalna jest duża luka kompetencyjna pomiędzy odsetkiem firm chcących wprowadzić kolejne technologie AI, a będące świadomymi ryzyk, które się z nimi wiążą. Prawie 9/10 (88%) chce korzystać z SDG (Synthetic Data Generation) ale tylko 58% jest zaznajomiona z wiążącymi się z tą technologią zagrożeniami.

    – Wdrażanie innowacyjnych technologii, takich jak sztuczna inteligencja, wiąże się z rosnącymi wymaganiami regulacyjnymi, które często bywają niedostatecznie uwzględniane w strategiach bezpieczeństwa firm. A trzeba przecież pamiętać, że przyjęte rozporządzenie AI ACT zakazuje stosowania systemów, które m.in. „stosują techniki podprogowe lub manipulacyjne będące poza świadomością danej osoby lub wprowadzają w błąd”, a kary w tym wypadku mogą sięgać aż do 35 mln euro lub 7% rocznego obrotu. Wdrożenie tej regulacji do unijnego porządku prawnego odbywa się stopniowo, ale już od 2 sierpnia tego roku zaczęły być stosowane przepisy dotyczące kar oraz modeli AI ogólnego przeznaczenia – mówi Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych.

    ŹródłoEY
    0 Komentarze
    najnowszy
    najstarszy oceniany
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    UOKiK: Podwyżka na autopilocie – Netflix zmienia ceny bez wyraźnej zgody subskrybentów

    Oglądasz ten sam serial, masz tę samą subskrypcję… i zauważasz, że od pewnego czasu płacisz więcej za usługę. Platforma Netflix...