Każdy ma prawo do opinii, ale nikt nie ma prawa do nienawiści. Sztuczna inteligencja walczy z hejtem w sieci

6 miesięcy temu
Zdjęcie: sztuczna inteligencja


Każdy ma prawo do opinii, ale nikt nie ma prawa do nienawiści. Zaawansowane technologie, takie jak farmy trolli i fałszywe profile, rozprzestrzeniają się po Europie z niepokojącą prędkością. Jednak zaskakująco duża część hejtu płynie prosto z klawiatur zwykłych ludzi – członków naszego społeczeństwa, którzy w sieci wyładowują swoje frustracje. Niemoderowana dyskusja automatycznie staje się siedliskiem toksycznej nienawiści, przed którą może ochronić skutecznie tylko sztuczna inteligencja.

W globalnym raporcie DIGITAL 2023: GLOBAL OVERVIEW REPORT wskazano, iż blisko 90% populacji Europy to użytkownicy internetu. W Polsce z sieci korzysta prawie 36 milionów osób, co stanowi ponad 88% całej populacji. Ile z tych osób miało styczność z mową nienawiści w cyberprzestrzeni? Z badania przeprowadzonego przez IRCenter wynika, iż bezpośredniego hejtu w polskim internecie doświadczyło 37% wszystkich badanych. Z kolei w raporcie CBS co drugi badany (50%) twierdził, iż w polskim społeczeństwie istnieje przyzwolenie na obrażanie innych.

Z podobnymi problemami mierzą się Słowacy, wśród których aż 91,2% społeczeństwa aktywnie korzysta z internetu. Twórcy TrollWall AI, słowackiej aplikacji służącej do filtrowania nienawistnych komentarzy w mediach społecznościowych, przeanalizowali ponad 400 stron i profili na słowackim Facebooku. Badanie objęło w dwóch fazach aż 7,5 miliona komentarzy. W rezultacie zaobserwowano, iż średni odsetek wpisów pełnych nienawiści wynosi aż 13%. Odsetek bywa wyższy na konkretnych stronach z obszaru polityki, sportu czy kultury.

Hate speech

Analitycy dowiedli jednak, iż aktywna moderacja prowadzona przy użyciu sztucznej inteligencji, ma wpływ na poziom dyskusji, ponieważ znowu przyciąga do niej uprzejme osoby. Zauważono, iż włączenie narzędzi AI, które odflitrowują nienawistne wpisy, doprowadziło do spadku poziomu hejtu z 13 do zaledwie 2%.

Dane pokazują, iż między Słowacją a Czechami czy innymi krajami europejskimi nie ma dużych różnic procentowych, w Polsce problem z uwagi na większą liczbę mediów, profili i kanałów komunikacji, może być choćby jeszcze szerszy.

– Definiujemy hejt na podstawie międzynarodowych definicji mowy nienawiści, czyli angielskiego wyrażenia hate speech. Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób na podstawie ich tożsamości, cech charakterystycznych czy przynależności rasowej, wyznania, orientacji seksualnej. Warto dodać do tego wulgaryzmy i toksyczny język, czyli to, co w rozwiniętym społeczeństwie nie jest uważane za przyzwoite – tłumaczy Tomáš Halász, pionier w dziedzinie moderowania dyskusji internetowych przy zastosowaniu sztucznej inteligencji i twórca aplikacji TrollWall AI.

Perfekcyjna prowokacja

Według cyberspecjalistów – trolla charakteryzuje pozorna obojętność, udawanie, iż jest nieświadomy tego, iż większość ludzi się z nimi nie zgadza. Ponadto rzadko się denerwuje czy wścieka i nie daje się sprowokować, ukrywa własną, prawdziwą twarz na zdjęciach profilowych, a jego nazwa użytkownika to pseudonim lub zmyślone dane. Śledzi wiele kont, ale obserwujących prawie nie ma wcale.

Naukowcy twierdzą, iż język nienawiści używany we współczesnym internecie to nic innego jak przejaw społecznej patologii, która z podwórek dotarła do wirtualnego świata. Specjaliści zajmujący się marketingiem zaznaczają, iż wpływ hejtu na postrzeganie marki jest olbrzymi. Obraźliwe, negatywne komentarze na forach, w recenzjach czy opiniach, mogą gwałtownie rozszerzyć się na ataki personalne wobec pracowników, a skończyć na eventach zniechęcających do zakupu usług lub produktów aż do całkowicie powszechnego bojkotu przedsiębiorstwa.

Te wydarzenia bezpośrednio wpłyną na postrzeganie marki przez partnerów biznesowych i klientów jako kontrowersyjną lub niegodną zaufania i spowodują zainteresowanie konkurencją jako bardziej wiarygodną i profesjonalną w działaniu. W przypadku spółek oznacza to spadek cen akcji i wartości rynkowej, wskaźników sprzedaży oraz przychodów firmy. Wdrożenie rozwiązań naprawczych w celu zarządzania kryzysem to dodatkowe straty finansowe i długotrwały proces odbudowy wizerunku marki, który często w pełni nie jest już możliwy.

Moderacja pod presją

Hejterzy, wrzucając swoje wulgarne i pełne nienawiści komentarze, rozpraszają moderatorów, którzy mogliby skupić się na budowaniu pozytywnych relacji z lojalnymi fanami. To negatywnie wpływa na całą społeczność profilu. Rosnąca ilość treści do moderacji staje się zbyt dużym obciążeniem dla osób zarządzających stronami i profilami, a tradycyjne metody moderacji manualnej okazują się nieskuteczne.

Badania dowodzą, iż długotrwałe czytanie nienawistnych komentarzy i wypowiedzi ma negatywne konsekwencje dla ludzi. Tracą zaufanie do społeczeństwa, mają złe sny i inne psychologiczne następstwa. Może jednak być lepiej. W Polsce od I kwartału 2024 roku działa już aplikacja TrollWall AI oparta o sztuczną inteligencję, która ukrywa toksyczne komentarze w mediach społecznościowych przez 24 godziny na dobę, 7 dni w tygodniu. Narzędzie zdobyło wcześniej olbrzymią popularność za naszą południową granicą. W Czechach i Słowacji korzystają z niej choćby głowy państw – Peter Pavel i Zuzana Čaputová. Dlatego startup otrzymał niedawno nominację w prestiżowym europejskim konkursie Innovation in Politics Awards 2024.

– Jeszcze zanim nasz kandydat na prezydenta zyskał popularność, spędzaliśmy kilka godzin dziennie na sprawdzaniu komentarzy. System ustawiania słów kluczowych na Facebooku był niefunkcjonalny i zawodny. TrollWall uwolnił nam ręce i mogliśmy skupić się na dyskusji, a nie na hejterach. Tak jakbyśmy mieli pod ręką dwie lub trzy inne osoby, o których nie wiedzieliśmy, iż wykonują tę pracę, ale ją wykonywały – mówi Jan Krála, menedżer mediów społecznościowych podczas kampanii prezydenckiej w Czechach Petra Pavla.

Błyskawiczna detoksykacja

Implementacja TrollWall AI nie oddziałuje negatywnie na zasięgi i widoczność brandu w mediach społecznościowych. Wszystko dlatego, iż narzędzie działa płynnie w czasie rzeczywistym, nie mając przy tym wpływu na algorytmiczną dystrybucję treści na poszczególnych platformach w social mediach.

Cyfrowe rozwiązanie funkcjonuje w oparciu o technologię środowiska Azure, wykorzystując autorskie modele językowe stworzone w obrębie AI. Innowacyjny technologicznie napęd pozwala usłudze na przetwarzanie języka naturalnego do moderacji kontekstowej, podstawia algorytmy uczenia maszynowego dla ciągłego doskonalenia w celu uzyskania lepszych wyników. Analizę danych opiera w czasie rzeczywistym o natychmiastowe działania w przypadku realnych zagrożeń dla odbioru dyskusji przez pojawiający się hejt i trolling.

– Sztuczna inteligencja automatycznie ukrywa wulgarne, agresywne i pełne nienawiści komentarze oraz groźby. Toksyczne wpisy nie są usuwane, bo dla autorów, czasem i dla ich znajomych, są przez cały czas widoczne. Dla pozostałych są jednak niedostępne, co podnosi poziom dyskusji, do której dołącza więcej uprzejmych osób. Administrator widzi wpisy, może sprawdzić decyzje sztucznej inteligencji i kiedy uzna to za stosowne, może przywrócić kontrowersyjne posty – podsumowuje Tomáš Halász.

Idź do oryginalnego materiału