Od 2025 roku w Unii Europejskiej obowiązuje AI Act – pierwsze na świecie rozporządzenie kompleksowo regulujące wykorzystanie sztucznej inteligencji. Nowe przepisy obejmą także rozwiązania wspierające rekrutację i zarządzanie procesami HR. W centrum uwagi znajdzie się przejrzystość, nadzór człowieka i ochrona praw kandydatów – a to oznacza dla firm konkretne obowiązki. Jakie dokładnie?
To pierwsze tego typu prawo na świecie – UE wyprzedza nie tylko Stany Zjednoczone, ale także Chiny.
Choć formalnie dotyczy krajów unijnych, już dziś eksperci wskazują, że AI Act stanie się wzorem dla podobnych regulacji powstających w Kanadzie, Brazylii czy Australii. Dla firm działających globalnie to nie tylko lokalne wyzwanie, ale przyszły standard.
AI w HR pod nadzorem
AI Act wprowadza m.in. zakaz stosowania technologii AI w przypadkach, które mogą naruszać podstawowe prawa i wolności – jak np. manipulacja emocjonalna, nieuprawnione profilowanie czy tzw. scoring społeczny, czyli ocenianie ludzi na podstawie ich zachowań, stylu życia czy przekonań. Tego typu systemy mogą prowadzić do niesprawiedliwego traktowania, np. ograniczania dostępu do usług lub możliwości zawodowych. Jednocześnie akt nie zakazuje korzystania z AI w HR, ale warunkuje to przestrzeganiem ściśle określonych zasad – co dla wielu organizacji może oznaczać konieczność przedefiniowania dotychczasowego podejścia.
Szczególną uwagę nowe przepisy poświęcają systemom klasyfikowanym jako „wysokiego ryzyka”, czyli m.in. narzędziom wykorzystywanym w rekrutacji, które wpływają na decyzje dotyczące zatrudnienia. AI Act wskazuje wprost, że tego rodzaju rozwiązania muszą działać w ramach określonych granic: z zachowaniem nadzoru ludzkiego, bez nieuzasadnionej ingerencji w proces decyzyjny i z pełną informacją dla kandydatów o tym, że ich aplikacje są analizowane z użyciem algorytmów.
Nowe prawo podkreśla również potrzebę unikania wszelkich praktyk, które mogą wykluczać kandydatów ze względu na wiek, pochodzenie, status społeczny, płeć czy inne cechy osobiste. To wymusza bardziej świadome korzystanie z danych, a także większą ostrożność w projektowaniu narzędzi AI – tak, by nie powielały stereotypów czy nie prowadziły do uprzedzeń, nawet nieintencjonalnie.
– AI Act to odpowiedź na dynamiczny rozwój technologii, który w obszarze HR rodzi coraz więcej pytań – zarówno po stronie firm, jak i kandydatów. W eRecruiter od początku tworzyliśmy nasze funkcje wspierające rekrutację z założeniem, że sztuczna inteligencja ma pomagać człowiekowi, a nie go zastępować. Kluczowe było dla nas podejście oparte na transparentności – algorytm może analizować aplikacje, ale decyzję o zaproszeniu kandydata do kolejnego etapu zawsze podejmuje rekruter. Zadbaliśmy też o to, by dane kandydatów były wykorzystywane wyłącznie w takim kontekście, w jakim zostały przekazane – nigdy jako podstawa do nieetycznego profilowania – mówi Katarzyna Trzaska, ekspertka eRecruiter.
Co więcej, AI Act przewiduje kary sięgające nawet 35 milionów euro lub 7% globalnego obrotu przedsiębiorstwa – to wyższe sankcje niż w przypadku wielu naruszeń RODO. To jasny sygnał, że UE traktuje odpowiedzialne stosowanie AI bardzo poważnie – także w obszarach takich jak rekrutacja.
Kandydat w centrum uwagi
Nowe przepisy wzmacniają również pozycję kandydatów – zgodnie z AI Act, osoby biorące udział w rekrutacji muszą być informowane o tym, że ich aplikacje analizowane są przez systemy AI, oraz mieć świadomość, na jakich zasadach się to odbywa. To duży krok w kierunku bardziej przejrzystych i partnerskich relacji między kandydatem a firmą.
W praktyce oznacza to konieczność zadbania o czytelną i zrozumiałą informację dla kandydata, że jego aplikacja może być wspierana przez rozwiązania wykorzystujące sztuczną inteligencję. Przykładem takiego podejścia są funkcje AI dostępne w systemie eRecruiter, które zostały pozytywnie zweryfikowane pod kątem zgodności z AI Act. Wśród nich znajdują się m.in. preselekcja AI, tagowanie CV czy generator pytań rekrutacyjnych – każda z tych funkcji działa w ramach jasno określonych granic i nie analizuje danych wrażliwych ani nie prowadzi do nieetycznego profilowania.
Warto zadbać o to, by kandydaci byli świadomi, że ich aplikacje mogą być analizowane z użyciem rozwiązań AI – np. poprzez jasną informację w formularzu aplikacyjnym lub polityce prywatności. Przykładowa forma takiej informacji może brzmieć następująco: “Wyrażam zgodę na użycie systemów AI w procesie oceny mojej aplikacji zgodnie z polityką AI Act”. Oczywiście przy założeniu, że została przeprowadzona weryfikacja wykorzystywanych systemów AI pod kątem AI Act.
Wśród zakazanych praktyk znalazły się m.in. analiza emocji kandydatów, rozpoznawanie twarzy z nagrań monitoringu czy ocenianie aplikujących na podstawie ich aktywności w mediach społecznościowych. To oznacza koniec eksperymentów z „czytaniem twarzy” czy próbami automatycznego oceniania entuzjazmu po liczbie uśmiechów. Dla części firm może to być zaskoczenie – dla innych okazja do uporządkowania procesów.
Nowe regulacje – nowe zaufanie?
AI Act stawia jasne granice, ale też otwiera drogę do etycznego i odpowiedzialnego wykorzystania nowoczesnych technologii w HR. Dla firm to szansa, by nie tylko działać zgodnie z prawem, ale także realnie budować zaufanie kandydatów – w świecie, w którym rekrutacja coraz bardziej opiera się na danych, ale nadal powinna opierać się przede wszystkim na relacjach.