Kenijscy pracownicy wygrywają apelację Sądu Najwyższego w sprawie postawienia Meta przed sądem

cyberfeed.pl 1 miesiąc temu


We wrześniu 2024 r. Sąd Apelacyjny w Nairobi orzekł, iż dwie sprawy wniesione przez 185 byłych moderatorów treści na Facebooku i Instagramie przeciwko Meta – jedna dotycząca rzekomo złych warunków pracy, a druga dotycząca masowych zwolnień – powinny trafić do sądu.

Orzeczenie to jest następstwem 18-miesięcznej batalii pomiędzy moderatorami a ich byłym pracodawcą Meta, który upierał się, iż sądy kenijskie nie mają uprawnień do rozpatrywania spraw. Chociaż technologiczny gigant odwoływał się już wcześniej od wcześniejszych decyzji Sądu Najwyższego w obu sprawach dotyczących warunków pracy moderatorów treści, sąd już orzekł przeciwko tym apelacjom.

Sprawy zostały wszczęte przez byłego moderatora treści na Facebooku, Daniela Motaunga, który twierdzi, iż Meta bezprawnie naraziła jego i jego współpracowników na wykorzystywanie, które zaszkodziło ich zdrowiu psychicznemu. Motaung zaczął organizować się ze swoimi współpracownikami, tworząc związek mający na celu walkę z wyzyskiem jego i jego kolegów. Akcja została stłumiona przez Meta, a Motaung i 185 jego współpracowników zostali bezprawnie zwolnieni w ramach mającego na celu rozbicie związków zawodowych giganta z Doliny Krzemowej.

Motaung był tylko jednym z wielu moderatorów treści, którym zwolniono pracę, pozbawiając ich dostępu do zatrudnienia. niedługo potem wyszło na jaw, iż Meta planowała przenieść firmy outsourcingowe w swoim centrum w Nairobi z Sama na Majorel, w efekcie umieszczając tych pracowników na czarnej liście uniemożliwiającej powrót do pracy i zachęcając ich do wspólnego wszczęcia drugiej sprawy przeciwko ich masowym zwolnieniom

Po zwycięstwie pracowników Sąd Apelacyjny orzekł, iż obie sprawy mają jurysdykcję do rozpatrzenia sprawy w Kenii.

Oprócz pieniędzy należnych im od Meta i jej wykonawców, pracownicy domagają się usprawnień w swoich warunki pracyi wzywają firmę do przestrzegania prawa do wypowiadania się na temat złych warunków pracy i do przyłączenia się do związku zawodowego, a także do wprowadzenia w Kenii systemu wsparcia w zakresie zdrowia psychicznego na wzór systemu zapewnianego pracownikom w centrali Menlo Park i Dublinie.

Computer Weekly skontaktował się z Metą w sprawie decyzji sądu i każdego aspektu tej historii, ale nie otrzymał żadnej odpowiedzi.

Wzór wielonarodowego wyzysku

Długo oczekiwana decyzja dała moderatorom treści nadzieję, iż zostanie wymierzona sprawiedliwość za wykorzystywanie, na jakie poddała ich Meta. Kowno Malgwi jest jednym ze 185 byłych moderatorów treści na Facebooku, którzy wnieśli skargę prawną przeciwko Meta i Sama. Jest przewodniczącą nigeryjskiej kaplicy Afrykańskiego Związku Moderatorów Treści i znalazła się na liście 100 AI magazynu TIME.

„Po prawie dwóch latach marnowania czasu z euforią dowiedziałam się, iż niedługo nadejdzie dzień, gdy na sali sądowej staniemy przed Metą i usłyszymy, jak odpowie za wyzysk i znęcanie się nad mną i moimi kolegami” – mówi.

Pracując dla Facebooka, Malgwi moderowała treści obejmujące filmy i zdjęcia przedstawiające gwałty, samobójstwa i okrucieństwa wojenne. Pomimo napięcia psychicznego, z jakim borykają się pracownicy, Meta wypróbowała każdą możliwą taktykę, aby zapobiec skierowaniu sprawy do sądu.

„Sądy zajmują dużo czasu, a Meta zatrudniła prawników, aby opóźniali naszą sprawę tak bardzo, jak to możliwe, stosując brudne chwyty prawne i oferty mediacji w złej wierze, które ostatecznie donikąd nie doprowadziły. Można by pomyśleć, iż jedna z najbardziej znanych i potężnych firm na świecie nie powinna upaść tak nisko, ale przekonaliśmy się, iż nie ma taktyki zbyt haniebnej, aby Meta” – mówi Malgwi.

Meta zatrudniła prawników, aby opóźnili naszą sprawę tak bardzo, jak to możliwe, stosując brudne chwyty prawne i oferty mediacji w złej wierze, które ostatecznie donikąd nie doprowadziły

Kauna Malgwi, Afrykańska Unia Moderatorów Treści

To nie pierwszy raz, gdy moderatorzy treści w Afryce starają się pociągnąć Big Tech do odpowiedzialności. Utworzenie Afrykańskiego Związku Moderatorów Treści przez 150 afrykańskich pracowników sztucznej inteligencji (AI), którego celem jest zapewnienie lepszych warunków pracy moderatorom treści, mikropracownikom i osobom odpowiedzialnym za etykietowanie danych, było aktem historycznego sprzeciwu wobec wielkich technologii, a jeden z jego organizatorów Richard Mathenge wymieniony jako jeden z CZAS 100 najbardziej wpływowych osób w AI.

Moderatorzy treści związku przeszli dalej wygrać przełomową sprawę sądową w Kenii, która w czerwcu 2023 r. nakazała Meta zapewnienie „odpowiedniej opieki medycznej, psychiatrycznej i psychologicznej”. Podobnie w Kolumbii platforma outsourcingowa Tele Performance podpisała historyczne porozumienie przyznające swoim 40 000 pracownikom prawo do tworzenia związków zawodowych po dochodzeniu, które ujawniło fatalne warunki pracy Moderatorzy treści TikTok.

Osoby, z którymi przeprowadzono wywiady z „Computer Weekly”, twierdzą, iż wyzysk moderatorów treści na Globalnym Południu jest wzorowany na międzynarodowych korporacjach i ich wyścigu na dno w poszukiwaniu taniej siły roboczej.

Nairobi stało się epicentrum wyścigu na outsourcing sztucznej inteligencji, głównie ze względu na wysoki poziom bezrobocia w połączeniu z coraz bardziej wykształconą populacją młodych ludzi oraz wysoki odsetek osób mówiących po angielsku w stolicy, a firmy outsourcingowe takie jak Sama oferują stanowiska pracy na poziomie podstawowym w branży technologicznej.

Na przykład dochodzenie TIME wykazało w 2023 r., iż OpenAI płaciło mikropracownikom w Kenii w latach 1,32 dolara i 2 dolara za godzinę przeglądanie toksycznych treści, oznaczanie danych i usuwanie szkodliwych, brutalnych i drastycznych treści.

„Niezbędna praca”

Niektórzy twierdzą, iż mikropracę – pracę wykonywaną przez moderatorów treści i osoby odpowiedzialne za etykietowanie danych – należy postrzegać jako pracę niezbędną, która może pomóc w poprawie warunków pracy tych pracowników.

„Dopóki nie potraktujemy moderowania treści jako prawdziwej pracy cyfrowej, która jest potrzebna i niełatwa do zautomatyzowania, nie docenimy tych pracowników ani ich nie dostrzeżemy. Moderowanie treści to połączenie osób odpowiadających na wezwania pod numer 911 i strażnika parku” – mówi Mary L. Gray, starszy główny badacz i współautorka książki Praca z duchami.

„Zasługują na przyzwoite miejsce pracy, godziny pracy, w których uwzględniane są wyzwania związane z dokonywaniem pochopnych ocen, oraz zdolność do organizowania się i rokowań zbiorowych w celu poprawy jakości pracy, którą wykonują na rzecz wszystkich konsumentów mediów społecznościowych”.

Złe warunki pracy, z jakimi borykają się moderatorzy treści i inni mikropracownicy, znajdują odzwierciedlenie w całej branży. James Oyange, były moderator treści TikTok i organizator w Afrykańskim Związku Moderatorów Treści, mówi: „Jako moderatorzy treści różnych gigantów technologicznych, takich jak TikTok, Facebook i ChatGPT, zaobserwowaliśmy wspólny wątek obaw i wyzwań, które konsekwentnie pozostawiano niezaadresowany.

„Żmudny charakter naszej pracy w połączeniu z brakiem wsparcia i uznania w zakresie zdrowia psychicznego skłonił nas do zjednoczenia się w dążeniu do bardziej sprawiedliwego środowiska dla wszystkich moderatorów treści i pracowników AI”.

Potencjalna zmiana krokowa

Jednak to ostatnie orzeczenie w Nairobi może pomóc w przechyleniu wahadła i zmusić duże firmy technologiczne do uznania wartości wkładu tych pracowników i odpowiedniego ich traktowania.

Na przykład współdyrektor wykonawczy Foxglove, Martha Dark, powiedziała: „To orzeczenie pokazuje, iż pomimo oszałamiających zasobów Meta można je pokonać. I był bity za każdym razem, gdy wysuwał absurdalny, neokolonialny argument, iż sądy kenijskie nie mają władzy rozpatrywania spraw przeciwko amerykańskiej firmie”.

Aby decyzja ta miała trwały skutek, konieczna jest szersza świadomość społeczna i zrozumienie warunków, w jakich żyją pracownicy utrzymujący nasz cyfrowy świat. Jak mówi Adio Dinika, pracownik naukowy w Instytut Badań nad Rozproszoną Sztuczną Inteligencją mówi Computer Weekly: „Potrzebujemy trwałej świadomości społecznej, zmian w polityce i odpowiedzialności korporacyjnej, aby rozwiązać problemy systemowe w branży moderowania treści.

„Wpływ tego zwycięstwa może być dalekosiężny i potencjalnie wpłynąć na sposób, w jaki firmy technologiczne organizują swoje operacje moderowania treści na całym świecie. Może to prowadzić do poprawy warunków pracy, lepszego wsparcia w zakresie zdrowia psychicznego i sprawiedliwszego wynagrodzenia. Ostatecznie ta sprawa stanowi sygnał alarmowy dla branży technologicznej, aby uświadomiła sobie, jakie koszty ludzkie stoją za naszymi oczyszczonymi doświadczeniami cyfrowymi”.

Wyjaśniając, co motywuje ją do walki, Malgwi przypomina nam, iż mamy więcej wspólnego z moderatorami treści niż z dyrektorami generalnymi ds. technologii, takimi jak Mark Zuckerberg, i dlatego tak ważne jest zachęcanie do podejmowania zbiorowych działań przeciwko wielkim technologiom.

„Walka z gigantami takimi jak Meta jest trudna, ale niezbędna, jeżeli mamy chronić się przed wyzyskiem ze strony firm potężniejszych niż większość krajów. Musimy łączyć się, organizować i walczyć z Meta ponad granicami. Przejęliśmy wiodącą rolę w tych pracach w Afryce, ale teraz trzeba pójść dalej” – mówi.

Dark dodaje treść wiadomości, którą moderatorzy powinni zaczerpnąć z decyzji Sądu Najwyższego: „Meta jest przerażona – boi się, ponieważ wie, iż zarzuty postawione jej przez moderatorów z Nairobi są prawdziwe. Dlatego odmawia współpracy z nimi, zamiast tego stosuje fantazyjne sztuczki prawne i taktykę opóźniania, aby uniknąć problemów. Już prawie nie ma drogi – nie możemy się już doczekać, żeby zobaczyć ich w sądzie”.



Source link

Idź do oryginalnego materiału