Około jedna trzecia nastolatków twierdzi, że była zastraszana online. Niektóre ofiary odebrały sobie życie. Jedną z nich była -letnia australijska uczennica Amy Everett. To skłoniło rządy do wprowadzenia ostrzejszych kar dla sprawców. Jednak środki te w nie zapobiegają nękaniu, a hejt w internecie stał się plagą mediów społecznościowych. Dlatego sztuczna inteligencja uczy się wykrywać i odfiltrowywać szkodliwe posty zanim dotrą do użytkowników.

Gilles Jacobs z Uniwersytetu w Gandawie w Belgii wraz z zespołem zastanawiali się, czy mogą wytrenować algorytm uczenia maszynowego tak, aby wykrywał treści związane z nękaniem w mediach społecznościowych, umożliwiając ich usunięcie zanim pojawią się szkody. Aby było to możliwe, najpierw poproszono lingwistów o przeczytanie ponad 200 tys. postów na platformie mediów społecznościowych ASKfm i wybrano przykłady cyberprzemocy. Następnie wyszkolono algorytm do identyfikacji słów i fraz w tym zestawie danych, które zwykle wiązały się z zastraszaniem.

infoplanet technologia chron dzieci przed hejtem w sieci badania

Kiedy przetestowano algorytm na prawdziwych postach z ASKfm, odkryto, że może wykryć ponad 2/3 zagrożeń, obelg i przypadków molestowania seksualnego. Ataki, które zostały utracone, były bardziej subtelne i zawierały mniej oczywistych słów lub przekleństw.

– Naprawdę trudno jest uzyskać dokładność wykrywania 100%, ponieważ istnieje wiele sposobów znęcania się nad kimś. Co więcej, system czasami nie potrafił odróżnić przyjaznych żartów zawierających ironię lub sarkazm. Jednak algorytm powinien stać się lepszy w wychwytywaniu subtelnego hejtu i rozpoznawania nieszkodliwych żartów – mówi Jacobs.

infoplanet technologia chron dzieci przed hejtem w sieci wnioski

Serwisy społecznościowe już zaczynają wprowadzać własne wersje takich systemów. Na przykład Instagram na początku tego miesiąca ogłosił, że zaczął używać algorytmu uczenia maszynowego do wykrywania śladów zastraszania na zdjęciach i napisach. Po zgłoszeniu postu jest on wysyłany do moderatorów ludzi do sprawdzenia. Jak twierdzi Thomas Davidson z Cornell University w USA, takie algorytmy powinny ułatwić platformom moderowanie rozległych warstw treści. Poleganie na ludzkich moderatorach, aby codziennie skanować miliony komentarzy jest bowiem niemożliwe.

Już wkrótce wdrożone zostanie również oprogramowanie amerykańskiej firmy Identity Guard, które rodzice mogą instalować na kontach społecznościowych dzieci, aby sprawdzić, czy są prześladowane. Jednak aby takie systemy moderacji były akceptowalne dla młodych ludzi, musiałyby działać bardzo dyskretnie, ponieważ nastolatki nie chcą czuć, że są stale monitorowani. Oznacza to, że musimy zachować równowagę między bezpieczeństwem a wolnością.

Źródło: PLoS One, DOI: 10.1371 / journal.pone.0203794

kup artykuly platne