sobota, 31 maja, 2025

Nasze serwisy:

Więcej

    Kiedy AI widzi mężczyznę, a kiedy kobietę – jak algorytmy kreują płeć i wpływają na nasze kariery

    Zobacz również

    Sztuczna inteligencja coraz częściej decyduje o tym, kto dostanie kredyt, pracę czy diagnozę medyczną. Ale czy podejmowane przez nią decyzje rzeczywiście są obiektywne? Najnowsze raporty nie pozostawiają złudzeń – AI nie tylko dziedziczy społeczne stereotypy, ale także potrafi je nieświadomie wzmacniać. W efekcie kobiety często są niewidoczne dla algorytmów – i to dosłownie.

    - Reklama -


    W świecie danych kobieta to wyjątek, nie reguła
    Sztuczna inteligencja opiera swoje decyzje na danych, które otrzymała. Problem w tym, że te dane odzwierciedlają świat, w którym kobiety były – i często nadal są – marginalizowane. Przykład? AI wspierająca diagnostykę kardiologiczną może „przeoczyć” zawał u kobiety, ponieważ została wytrenowana głównie na przypadkach mężczyzn. Tymczasem objawy zawału serca u kobiet różnią się od tych typowych dla mężczyzn – częściej obejmują duszności, nudności, ból pleców czy skrajne zmęczenie, co sprawia, że są mniej oczywiste i trudniejsze do rozpoznania dla algorytmu nieuwzględniającego tej różnorodności.


    Inny przykład? Generatywna AI, która – proszona o stworzenie scenariusza z udziałem lekarza i pielęgniarki – przypisuje pierwszą rolę mężczyźnie, a drugą kobiecie, odzwierciedlając stereotypy obecne w danych treningowych (choć w języku angielskim słowa doctor i nurse nie wskazują na płeć, algorytm i tak przypisuje je według utartych schematów).


    Takich przykładów jest więcej. Jak wynika z analizy Berkeley Haas Center for Equity, Gender and Leadership, aż 44% badanych systemów AI wykazuje uprzedzenia płciowe, a 25% – jednocześnie płciowe i rasowe.


    Algorytm wybiera – ale według czyich reguł?
    Poznajmy Julię. Ma 38 lat, wraca na rynek pracy po przerwie związanej z opieką nad dzieckiem. Jest specjalistką HR z dziesięcioletnim doświadczeniem i świetnym portfolio. A jednak – od tygodni nie dostaje żadnego zaproszenia na rozmowę. Czy naprawdę „rynek się zmienił”? A może to sposób oceniania kandydatów i kandydatek się zmienił – niekoniecznie na lepsze?


    Coraz więcej firm korzysta z algorytmów i agentów AI do preselekcji aplikacji. W opublikowanym w kwietniu 2025 roku raporcie Who Gets the Callback? Generative AI and Gender Bias zbadano, jak duże modele językowe oceniają kandydatów i kandydatki. Wnioski są niepokojące: mężczyźni byli wybierani jako „lepsi kandydaci” w 67% przypadków – nawet gdy ich profile były identyczne z żeńskimi. Uprzedzenia nasilały się szczególnie w sektorach technicznych i inżynieryjnych. Dlaczego? Bo algorytmy uczą się na podstawie danych historycznych, a te często odzwierciedlają świat, w którym mężczyźni dominowali w tych branżach. Dla AI luka w zatrudnieniu może być „sygnałem ryzyka”, a nie kontekstem – mówiącym np. o opiece nad dzieckiem. W testach naukowych, modele językowe uzasadniały wybór mężczyzny jako „bardziej stabilnego” lub „bardziej zaangażowanego zawodowo” niż kobieta – pomimo identycznych kwalifikacji.

    Dla Julii, której CV zawiera dwuletnią przerwę na opiekę nad dzieckiem, to może być bariera nie do pokonania. Zwłaszcza, że według najnowszego badania dr Natalie Sheard z Melbourne Law School, systemy oparte na sztucznej inteligencji często „karzą” kandydatów i kandydatki za luki w zatrudnieniu – nawet jeśli są one w pełni uzasadnione, jak urlop macierzyński. Co więcej, te same algorytmy nie oferują transparentnych wyjaśnień dla odrzuceń, co czyni cały proces jeszcze bardziej nieprzejrzystym. A przecież to właśnie kobiety najczęściej wypadają z rynku pracy z powodów opiekuńczych.


    Z perspektywy makro skala problemu również rośnie. Według raportu Międzynarodowej Organizacji Pracy (ILO) z maja 2025, aż 9,6% miejsc pracy typowo wykonywanych przez kobiety jest zagrożonych automatyzacją, podczas gdy w „męskich” zawodach – zaledwie 3,5%.
    A język? Też nie jest neutralny. Z badania UNESCO Bias Against Women and Girls in Large Language Models wynika, że modele takie jak Llama 2 wyraźnie przypisują kobietom role stereotypowo „opiekuńcze”, a mężczyznom – zawody prestiżowe jak inżynier czy lekarz. W analizowanych scenariuszach kobiety były opisywane jako pracujące w domu i zajmujące się dziećmi cztery razy częściej niż mężczyźni — nawet wtedy, gdy kontekst był całkowicie neutralny.


    Julia nie zna tych raportów – ale zna ich skutki. Jej aplikacje przepadają bez śladu. Nie dlatego, że nie jest kompetentna. Po prostu nie pasuje do matrycy danych.


    Czy tak musi być? Niekoniecznie. Kluczowa okazuje się jakość danych i różnorodność zespołów, które je tworzą. Bo tylko wtedy możliwe jest dostrzeżenie błędów i uprzedzeń, zanim staną się one częścią automatycznej decyzji.

    Różnorodne zespoły to nie tylko etyczna konieczność, ale też praktyczne rozwiązanie – komentuje Anna Żółtańska, Senior Software Developer w Capgemini Polska – Gdy zespoły projektujące rozwiązania AI są zróżnicowane pod względem płci, wieku, pochodzenia czy doświadczenia, potrafią szybciej wychwytywać luki w danych i unikać utrwalania szkodliwych schematów. To realnie zwiększa jakość systemów, ich skuteczność i zdolność do działania w bardziej sprawiedliwy, pozbawiony niepotrzebnych uprzedzeń sposób. Równość i inkluzywność są wpisane w architekturę rozwiązań Capgemini od samego początku. Nasze wartości to nie tylko hasła – to fundamenty, które przekładamy na praktykę.


    To dlatego w branży AI coraz więcej mówi się o zasadzie „fair by design” – czyli projektowaniu systemów tak, by transparentność była wbudowana w ich podstawy, a nie dodawana na późniejszym etapie jako poprawka.
    W odpowiedzi na wyzwania związane z uprzedzeniami algorytmicznymi organizacje i instytucje na całym świecie wdrażają konkretne rozwiązania. Przykładem jest unijny akt o sztucznej inteligencji – AI Act, który zakłada m.in. obowiązek przejrzystości danych treningowych, ograniczenie stosowania AI w obszarach wysokiego ryzyka (jak rekrutacja czy opieka zdrowotna) oraz wprowadzenie nadzoru nad działaniem systemów. Firmy technologiczne rozwijają także narzędzia do oceny i monitorowania modeli pod kątem uprzedzeń, takie jak Know Your Data od Google, które umożliwiają identyfikację potencjalnych schematów dyskryminacyjnych w zbiorach danych, jeszcze przed rozpoczęciem treningu modelu. Z kolei środowiska naukowe pracują nad tworzeniem bardziej inkluzywnych zasobów, takich jak The Pile of Law (uwzględniający różnorodność językową i społeczną) czy DiverseQA – zestaw testowy do sprawdzania, jak modele językowe radzą sobie z pytaniami dotyczącymi różnych grup społecznych.


    Zarówno Julia, jak i my – jako konsumenci i konsumentki, pacjenci i pacjentki czy kandydaci i kandydatki – często jesteśmy dziś oceniani/oceniane nie tylko przez ludzi, ale i przez algorytmy. Od jakości tych ocen zależy, czy dostaniemy szansę np. na pracę, kredyt, czy trafną diagnozę. Dlatego tak ważne jest, by mówić głośno o uprzedzeniach, które przenikają do AI. Nie po to, by z niej rezygnować – ale by budować ją lepiej. Bo technologia nie musi dzielić. Ale najpierw musimy nauczyć ją widzieć nie tylko mężczyznę w garniturze, ale też kobietę z przerwą w CV, osobę niebinarną czy pacjentkę z nietypowymi objawami.

    0 Komentarze
    najnowszy
    najstarszy oceniany
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    Nowym system FRITZ!Mesh Set 4200 – mocne Wi-Fi w każdym domu

    Firma AVM, niemiecki producent rozwiązań sieciowych, wprowadziła do sprzedaży w Polsce FRITZ!Mesh Set 4200, nowy system Wi-Fi Mesh. To...