Pandemiczny model mowy nienawiści
O tym, że reakcja na hejt w sieci jest potrzebna, naukowcy przekonali się po stworzeniu pandemicznego modelu mowy nienawiści. Jak się okazało - ludzie zarażają się nie tylko wirusami. - Zarażamy się hejtem, spirala nienawiści się nakręca - mówi prof. Michał Bilewicz z Wydziału Psychologii UW. - Cała populacja zaczyna się po pierwsze posługiwać takim językiem, a po drugie żywić pogardę wobec osób, które padają ofiarami mowy nienawiści. Czyli pogarda staje się czymś dominującym społecznie.
A im mniej reakcji, tym większe kręgi zatacza fala nienawiści w sieci. Wbrew pozorom, podejście typu "nie karm trolla" wcale nie jest dobrym rozwiązaniem.- Hejt internetowy i mowa nienawiści nie są tworzone tylko przez trolle. Jest też tworzona przez ludzi, którzy żyją w swoim zamkniętym środowisku nienawiści. Jeśli się wedrzemy do tego środowiska i skonfrontujemy z tym towarzystwem, to możliwe ze unikniemy często wielkich tragedii - mówi prof. Bilewicz. - Możliwe, że unikniemy w ten sposób wielu tragedii. Pamiętajmy, że wiele zamachów terrorystycznych, które miały miejsce w ostatnich latach, to były zamachy których dokonywały osoby aktywne wcześniej jako hejterzy internetowi.
Naukowcy zaczęli zastanawiać się czy można odwrócić proces napędzającej się fali nienawiści. - Podjęliśmy współpracę z organizacjami pozarządowymi, zajmującymi się uchodźcami, np. z inicjatywą Chlebem i Solą czy Fundacją Ocalenie, z którymi wspólnie stworzyliśmy warsztaty i kampanie w internecie, próbujące przywrócić ludziom zdolność do odczuwania empatii, co w efekcie powinno powstrzymać epidemię mowy nienawiści - wyjaśnia prof. Bilewicz.
Bot na straży empatii
Naukowcy poszli jednak o krok dalej. Rozpoczęli ze start-upem Samurai Labs pracę nad botem, który będzie wychwytywał internetowy hejt w oparciu o analizę emocjonalnego nasycenia pewnych treści. - Gdy tylko dostrzegł mowę nienawiści w portalu społecznościowym to reagował. Robił to w sposób bardzo grzeczny - opisuje prof. Bilewicz. - Robił to na dwa sposoby: mógł wyrażać dezaprobatę i odwoływać się do pewnych norm lub wywoływał empatię wobec ofiar takiego języka. Sugerował hejterowi "no pomyśl, że po drugiej stronie ekranu też jest jakiś człowiek".
Eksperyment z botem przyniósł zaskakujące efekty. Naukowcy zbadali zachowania hejterów przed i po spotkaniu z botem. Jak się okazało - ci, którzy mieli z nim do czynienia o wiele rzadziej w kolejnych miesiącach sięgali po mowę nienawiści.
Czy to oznacza, że finalnie o empatii będzie musiała nam przypominać sztuczna inteligencja? Profesor Bilewicz ma nadzieję, że tak się nie stanie.- Tak, jak ten eksperymentalny bot, którego testowaliśmy, tak samo może się zachowywać każdy z nas. Tylko rzadko to robimy. Jak pokazują badania, które prowadziliśmy przez dwa miesiące, większość osób kiedy widzi hejtera ignoruje go, albo unika miejsc, w których można go spotkać.
Tymczasem naukowcy wskazują, że najgorsza jest obojętność. Wbrew pozorom nie trzeba wdawać się z hejterem w burzliwą dyskusję. Jeśli nie chcemy w ogóle się odzywać - wystarczy zgłosić taki wpis czy komentarz moderatorom strony, na której go znaleźliśmy.
Masz dla nas ciekawy temat lub jesteś świadkiem wyjątkowego zdarzenia? Napisz do nas na adres online@grupazpr.pl. Czekamy na zdjęcia, filmy i newsy z Waszej okolicy!