Kto skontroluje algorytmy w pracy? Związki zawodowe nie wystarczą

6 miesięcy temu

Czy pracownikom wyrasta nowy wróg, znacznie gorszy od nieuczciwego pracodawcy czy niesprawiedliwego kierownika? To całkiem prawdopodobne. Algorytmy weszły do zarządzania zasobami kadrowymi, wpływając na życie zawodowe ludzi, którzy zwykle choćby o tym nie wiedzą.

Szczególnie często stosuje się je podczas rekrutacji pracowników, dzięki czemu staje się ona krótsza i prostsza. Zmęczony HR-owiec nie musi już przeglądać setek CV, rzucając na nie okiem średnio kilka sekund, ale dostaje starannie wyselekcjonowane przez maszynę oferty, którym może poświęcić więcej czasu.

Problem leży w tym, na jakiej podstawie maszyna podejmuje decyzje i kto to w ogóle kontroluje.

Sprawa nie jest nowa, gdyż już w poprzedniej kadencji do laski marszałkowskiej wpłynął projekt nowelizacji ustawy o związkach zawodowych, rozszerzający ich uprawnienia do informacji o parametrach i zasadach, na jakich opierają się algorytmy lub systemy AI wpływające na decyzje dotyczące oceny pracowników, warunków pracy czy zatrudnienia. Niestety, prace nad nowelizacją zatrzymały się na etapie komisji, chociaż projekt poparły największe centrale związkowe. Teraz nowa władza przymierza się do odkurzenia tej reformy.

Algorytmy i niesprawiedliwość społeczna

„Skoro oddajemy władzę algorytmom, skoro te algorytmy mają decydować o tym, czy pracownik otrzyma premię, jak liczyć jego czas pracy, to musimy zbudować mechanizmy społecznej kontroli nad tymi algorytmami. Społecznej, tzn. państwowej, ustawodawczej, tzn. także kontroli związków zawodowych, środowisk pracowniczych, samych pracowników czy pracodawców” – stwierdziła ministra pracy i polityki społecznej Agnieszka Dziemianowicz-Bąk podczas tegorocznej konferencji Impact.

W kraju, w którym przez cały czas dominuje nieformalny proces rekrutacji opierający się na znajomościach, a reguły oceny pracowników w większości małych firm w ogóle nie istnieją lub są niejasne, upowszechnienie algorytmów nie wydaje się czymś groźnym. Wręcz przeciwnie, takie ucywilizowanie procesu rekrutacji i oceny to raczej postęp w porównaniu do sytuacji, gdy zdobycie pracy wymaga posiadania szerokiej siatki kontaktów, a obniżona premia uzasadniana jest staropolskim „bo tak”.

Algorytmy potrafią być jednak równie niesprawiedliwe i nieczytelne co zmierzły kierownik. Przecież opierają się na parametrach ustalonych przez człowieka, których poza wąską grupką osób nikt nie zna.

Dane na wejściu mogą być tak ustawione, iż na wyjściu pojawia się oczywista niesprawiedliwość lub dyskryminacja konkretnych grup osób. Algorytmy służące do oceny pracowników mogą być określone w taki sposób, by faworyzować jedne procesy i zadania kosztem innych. W ten sposób pracownicy jednego działu muszą stawać na głowie, by nie zostać ocenionym negatywnie, za to w innych nie trzeba wkładać specjalnego wysiłku, by mieć pewność dobrej noty.

Poza tym algorytmy i systemy sztucznej inteligencji bazują na przeszłości. Zaciągają dane historyczne, w wyniku czego utrwalają stereotypy i niesprawiedliwe podziały społeczne. Maszyny służące do wyszukiwania potencjalnych kandydatów lub weryfikujące ich aplikacje mogą dyskryminować konkretne osoby tylko dlatego, iż w przeszłości były nieuprzywilejowane. Algorytm nie jest ideowcem, więc bez skrupułów będzie powielał dyskryminację i uprzedzenia.

W badaniu przeprowadzonym w 2019 roku przez naukowców z Northeastern University przyjrzano się działaniu targetowanych reklam z ofertami pracy umieszczanymi na Facebooku. Okazało się, iż oferty pracy kasjera w supermarkecie trafiały w 85 proc. do kobiet, natomiast informacje o wakatach w firmach taksówkarskich odczytywali w 75 proc. czarnoskórzy mężczyźni.

W ten sposób powielany jest porządek społeczny, który jest efektem wieloletniego nieuprzywilejowania konkretnych grup osób. Tworzy sztuczne bańki, w wyniku czego osoby z konkretnymi charakterystykami zostają odcięte od atrakcyjnych ofert pracy i mają wrażenie, iż dla takich jak one przeznaczone są tylko niskopłatne stanowiska.

Co gorsza, taka sztucznie wytwarzana dyskryminacja nie tylko jest ukryta, ale też bardziej tolerowana. W badaniu z 2022 roku naukowcy stwierdzili, iż ujawnione przypadki niesprawiedliwości powstające w wyniku działania algorytmów wywołują w ludziach mniejsze oburzenie niż dyskryminacja powstająca jako skutek świadomych decyzji człowieka. A przecież parametryzacja algorytmów również jest efektem decyzji człowieka, chociaż faktycznie czasem nieświadomych, gdyż zwykle trudno dokładnie ocenić skutki działania modelu matematycznego przed jego uruchomieniem.

Maszyny mogą więc krzywdzić ludzi, którzy w ogóle nie są tego świadomi. Są przekonani, iż uzyskują złe oceny z powodu swojej nieudolności. Zaczynają wierzyć, iż nie zasługują na inną pracę niż taksówkarz, z całym szacunkiem dla tej potrzebnej i pożytecznej profesji. Szerokie wykorzystywanie algorytmów w HR i zarządzaniu może więc zablokować możliwości awansu i spetryfikować niesprawiedliwy porządek społeczny na lata, a odkręcenie tego będzie bardzo trudne.

Czym kieruje się człowiek, a czym maszyna

Nic dziwnego, iż Cathy O’Neil nazwała algorytmy wpływające na życie społeczne „bronią matematycznej zagłady”. W swojej książce przyjrzała się również innym obszarom ich wykorzystywania – szczególnie bankowości czy organom ścigania. Algorytmy mogą dyskryminować ludzi tylko z powodu ich miejsca zamieszkania. W rezultacie mieszkańcy źle postrzeganych dzielnic mogą mieć zaniżoną zdolność kredytową lub być narażeni na regularne kontrole policji.

Oczywiście te wszystkie czynniki mogą powodować sytuacje dyskryminacji także wtedy, gdy decyzje podejmowane są wyłącznie przez ludzi. Człowiek kieruje się własnymi uprzedzeniami, a maszyna uprzedzeniami człowieka, których nauczy się, analizując dane. W przypadku człowieka łatwiej jest jednak odczytać przyczyny takich, a nie innych decyzji. Fundamenty działania algorytmów są zwykle niejawne i nieprzejrzyste.

Właśnie dlatego społeczna kontrola nad algorytmami służącymi do rekrutacji czy zarządzania jest tak potrzebna. Nowelizacja ustawy o związkach zawodowych załatwi jednak tylko część problemów. Poziom uzwiązkowienia w Polsce jest żałośnie niski, poza tym związki zawodowe dominują w państwowych przedsiębiorstwach – wydobycie, energetyka czy kolej – które nie należą do awangardy wykorzystywania najnowszych technologii cyfrowych.

Tymczasem problem szerokiego wykorzystywania algorytmów w rekrutacji w Polsce istnieje przede wszystkim w prywatnych korporacjach i branżach wysokich technologii. Te ostatnie to często niewielkie firmy, w których dominuje samozatrudnienie – mowa na przykład o gamedevie.

W mniejszych firmach rolę związków zawodowych mogłyby wykonywać rady pracowników, które teoretycznie powinny funkcjonować w przedsiębiorstwach zatrudniających ponad 50 osób, ale ich brak nie jest opatrzony żadną sankcją. W rezultacie w przytłaczającej większości firm rad pracowników nie ma. Gdyby nowelizacja zakładała również zmiany w przepisach dotyczących tych mniejszych form organizacji pracowniczych, nakładając obowiązek ich powstawania i obejmując je prawem do informacji na temat algorytmów, to zakres kontroli społecznej byłby znacznie szerszy.

Wciąż jednak poza kontrolą pozostaną algorytmy działające w innych obszarach – bankowości, aplikacjach mobilnych, na portalach społecznościowych. One również powinny być objęte nadzorem. Skoro firmy nie chcą ich ujawniać, gdyż często stanowią one ich główną przewagę nad konkurencją, to powinny zostać objęte kontrolą instytucji publicznych.

Najlepiej – jednej konkretnej instytucji, by każdy pokrzywdzony obywatel wiedział, gdzie ma się skierować ze skargą lub wnioskiem o sprawdzenie wątpliwości. Taki urząd ds. kontroli algorytmów, zatrudniający ludzi znających się na tej materii, działałby znacznie sprawniej niż związkowcy, których pozycja w Polsce jest dramatycznie słaba, czego dowodzi ogromna skala łamania Kodeksu pracy.

Idź do oryginalnego materiału