Sztuczna inteligencja w rekrutacji pod lupą

8 godzin temu

Unijny AI Act wymusi na pracodawcach zmianę podejścia do sztucznej inteligencji w procesach HR. Narzędzia wykorzystujące AI do rekrutacji, selekcji kandydatów czy oceny pracowników zostały zakwalifikowane jako systemy wysokiego ryzyka. To oznacza dodatkowe obowiązki nie tylko dla dostawców takich rozwiązań, ale też dla firm, które je wdrażają – od nadzoru człowieka i monitorowania działania systemu po przygotowanie zespołów HR do odpowiedzialnego korzystania z algorytmów.

Z ubiegłorocznych danych serwisu eRecruiter wynika, iż wykorzystanie przez firmy rozwiązań opartych na sztucznej inteligencji w procesie rekrutacji wzrosło czterokrotnie od 2023 roku – do poziomu 25 proc. spośród prawie 500 badanych firm. Mimo tej dynamiki tylko 15 proc. z nich posiadało wewnętrzne wytyczne dotyczące etycznego wykorzystania technologii w rekrutacji, a 62 proc. nie podjęło jeszcze systemowych działań w tym zakresie.

Jak wynika z badania Polskiego Forum HR „HR Tech Changer 2025” przeprowadzonego na ponad 300 respondentach z branży, najczęściej narzędzia technologiczne są wykorzystywane do selekcji kandydatów, ich rekrutacji, oceny kompetencji, a także zarządzania bazą kandydatów.

– Sztuczna inteligencja jest wykorzystywana w rekrutacji nie tylko do selekcji kandydatów, ale też na późniejszych etapach. Systemy są coraz częściej automatyzowane, niektóre zadania są powierzane technologiom, co usprawnia pracę działów HR i cały proces rekrutacji. W takich branżach jak chociażby przemysł, gospodarka magazynowa, gdzie na bieżąco trzeba uzupełniać potrzeby kadrowe, trudno sobie wyobrazić zarządzanie zasobami ludzkimi i procesem rekrutacji bez wykorzystania sztucznej inteligencji – mówi agencji Newseria Nadia Winiarska, ekspertka ds. zatrudnienia w Konfederacji Lewiatan. – Z perspektywy rynku pracy AI Act ma duże znaczenie, ponieważ wykorzystanie sztucznej inteligencji w systemach zarządzania zasobami ludzkimi, czyli systemach HR-owych, zostało uznane za systemy wysokiego ryzyka, co wymaga dodatkowych działań.

AI Act (rozporządzenie UE 2024/1689) to pierwszy w Unii Europejskiej kompleksowy zestaw zasad dla AI. Przepisy wchodzą w życie etapami: rozporządzenie zaczęło formalnie obowiązywać 1 sierpnia 2024 roku, ale najważniejsze wymogi są rozłożone w czasie – m.in. od 2 lutego 2025 roku stosuje się zakazy wybranych praktyk i przepisy ogólne (w tym dotyczące „AI literacy”), od 2 sierpnia 2025 roku – część regulacji dotyczących modeli ogólnego przeznaczenia i ram nadzoru. Większość obowiązków (w tym dla systemów wysokiego ryzyka w HR) zacznie być stosowana od 2 sierpnia 2026 roku, a pełne „dociągnięcie” harmonogramu przewidziano rok później.

W załączniku III AI Act wskazano, iż do kategorii wysokiego ryzyka należą m.in. systemy AI przeznaczone do rekrutacji lub selekcji osób, w tym do konstruowania ogłoszeń, analizowania i filtrowania aplikacji oraz oceny kandydatów. Jak podkreśla ekspertka, w praktyce oznacza to m.in. konieczność lepszego monitorowania procesu wdrożenia i eksploatacji: zarządzania systemem, monitorowania jego działania oraz informowania o tym, iż narzędzie AI jest wykorzystywane – zwłaszcza wtedy, gdy wspiera selekcję kandydatów i kandydatek. Pracodawca korzystający z takiego narzędzia w miejscu pracy będzie mieć obowiązek poinformowania osób, których to dotyczy, zanim system zostanie uruchomiony lub użyty.

– Są tutaj też dodatkowe obowiązki dotyczące szkolenia personelu, który ma do czynienia z tymi systemami – podkreśla Nadia Winiarska.

AI Act akcentuje także jakość danych i ograniczanie uprzedzeń algorytmicznych: w przypadku systemów wysokiego ryzyka wymagane są praktyki zarządzania danymi (m.in. reprezentatywność zbiorów danych, wykrywanie i łagodzenie ryzyka stronniczości, tzw. biasu). To jeden z filarów regulacji w HR, gdzie ryzyko dyskryminacji jest szczególnie wrażliwe. Stronniczość może wynikać z natury algorytmów, które uczą się na istniejących już schematach, również takich, które mogą być krzywdzące. Jak wskazują eksperci eRecruiter, przykładowo, jeżeli na danym stanowisku historycznie zatrudniano w większości mężczyzn, algorytm może domyślnie odrzucać kobiety, aby wpisać się w ten schemat.

– Sztuczna inteligencja w rekrutacji jest narzędziem wspierającym, natomiast jednocześnie warto pamiętać o tym, aby te nowe narzędzia wykorzystywać odpowiedzialnie, żeby AI nie powodowała zachowań niepożądanych, czyli na przykład dyskryminacji – wskazuje ekspertka Konfederacji Lewiatan. – Znane są przypadki, kiedy błędne algorytmy w procesie rekrutacji prowadziły właśnie do dyskryminacji, faworyzowania niektórych kandydatów lub kandydatek, których CV miały jakieś wspólne cechy.

Badanie Polskiego Forum HR wskazuje, iż 29 proc. spośród 300 respondentów branży uważa, iż błędy algorytmiczne i stronniczość AI są największym wyzwaniem w obszarze stosowania HR Tech. 19 proc. obawia się halucynacji AI.

Idź do oryginalnego materiału