Terminy troll, bot, anonim wykorzystuje się wymiennie, w jednoznacznie pejoratywnej intencji. Jednak traktując je identycznie coś tracimy, nie tylko różnorodność językową. A warto pamiętać o różnicach, bo, po pierwsze powstały w internetowym języku na oznaczenie różnych rzeczy, zachowań i typów ludzkich, mają różną genezę i historię, a w dodatku, przynajmniej jeśli chodzi o „bota” wcale nie muszą oznaczać czegoś jednoznacznie złego.

Terminy troll, bot, anonim wykorzystuje się wymiennie, w jednoznacznie pejoratywnej intencji. Jednak traktując je identycznie coś tracimy, nie tylko różnorodność językową. A warto pamiętać o różnicach, bo, po pierwsze powstały w internetowym języku na oznaczenie różnych rzeczy, zachowań i typów ludzkich, mają różną genezę i historię, a w dodatku, przynajmniej jeśli chodzi o „bota” wcale nie muszą oznaczać czegoś jednoznacznie złego.
Dlaczego się tym przejmować? A chociażby w imię herbertowskiej „dystynkcji w rozumowaniu”. Skoro powstały i zaczęły być używane, najpierw w sieci, a potem szerzej, pewne słowa i pojęcia opisujące rzeczywistość, to dlaczego teraz mamy mieszać wszystko ze wszystkim i ujednoznaczniać rzeczy, które jednoznaczne wcześniej nie były. Dlaczego „trollowaniem” mamy nazywać każdą odmienną opinię? Dlaczego „trollem” nazywać każdego przedstawiciela innej opcji politycznej? Dlaczego nazywać każdego anonima trollem albo botem? To niszczy całkiem sprecyzowane kiedyś znaczenie tych słów i ostatecznie prowadzi do tego, że ich używanie traci sens.
Empatyczny psychopata
„Troll” i „trollowanie” to jedne z najstarszych używanych i popularnych do dziś terminów żargonu sieciowego. Zrodziły się jeszcze w świecie pierwotnych grup dyskusyjnych i komunikacji IRC (Internet Relay Chat – to coś z paleointernetu). Użytkownikom tych archaicznych kanałów komunikacji sieciowej chodziło przede wszystkim o określenie pewnego typu osobowości i zachowań wyrażanych w dyskusjach, nie zaś postaw politycznych.
Na temat rysu osobowościowego „trolla” internetowego powstała bogata literatura, także naukowa. Polecam przeczytanie w wolnej chwili tego, co pisano na temat „trollingu” 20 i 10 lat temu. Gdyby próbować jakoś ten typ (lub tego typa) opisać skrótowo, to można by powiedzieć, że chodzi o kogoś, z kim trudno się rozmawia, kto nie dąży do wyjaśnienia, lecz nieodmiennie - do komplikowania spraw i pognębiania oponenta, gdyż, co łatwo się rozpoznaje, sam spór, kłótnia i „flame”, sprawiają mu satysfakcję. Stąd rytualne wezwanie „nie karmić trolla”. Każda bowiem reakcja na jego komentarze, odpowiedź, wybuch złości, sama kontynuacja wątku, jest jego „pożywieniem”.
Nie jest więc jeszcze „trollem”, ktoś kto ma po prostu inne poglądy, czy jest chamski. Jest być może tylko przeciwnikiem, oponentem, albo po prostu chamem. „Trollem” zostanie jednak dopiero wtedy, gdy zacznie „trollować”, czy dyskutować w specyficzny sposób.
Naukowcy w Australii postanowili niedawno zbadać, jakie cechy „normalnych” ludzi (użytkowników mediów społecznościowych, powyżej 18 roku życia, którzy nie wydają się być trollami) mogą sprawić, że staną się podatni na zachowania „trollo-podobne”. Korzystając z internetowego kwestionariusza, naukowcy z Wyższej Szkoły Nauk o Zdrowiu i Psychologii na Uniwersytecie Federacji w Mount Helen przebadali 415 mężczyzn i kobiet pod kątem różnych cech osobowości, jak również pod kątem predyspozycji do zachowań w sieci, które można uznać za przejawy trollingu, jak np. poziom akceptacji następującej opinii: „Chociaż niektórzy uważają, że moje posty/komentarze są obraźliwe, to jednak ja myślę, że są one zabawne”. Badacze zauważyli, że nawet jeśli „trolle” wykazują jeden rodzaj empatii, to połączenie jej z cechami psychopatycznymi ostatecznie sprawia, że przechodzą na ciemną stronę. Psychopatia, do której zalicza się m. in. brak dbałości o uczucia innych osób, została tu zmierzona przy użyciu skali, w której uczestnicy byli proszeni o wyrażenie zgody lub sprzeciwu wobec zestawu stwierdzeń, takich jak: „zemsta powinna być szybka i przykra”.
„Wyniki wskazują, że przy wysokim poziomie psychopatii, trolle stosują empatyczną strategię przewidywania i rozpoznawania emocjonalnego cierpienia swoich ofiar, wstrzymując się od doświadczenia tych negatywnych emocji,” pisali badacze w artykule opublikowanym w lecie ubiegłego roku w czasopiśmie „Personality and Individual Differences”. Zaznaczali, że ponieważ psychopatia wiąże się z poszukiwaniem dreszczyku emocji i nadpobudliwością, możliwe jest, iż „tworzenie chaosu online jest głównym motywatorem dla trolla”. Okazało się również, że trolle mają silne cechy sadystyczne, czyli chęć krzywdzenia innych, i jest bardziej prawdopodobne, że są mężczyznami.
Każdy może być trollem internetowym
Badania australijskie sugerują, że problem dotyczy tylko pewnych typów psychologicznych, szczególnie podatnych. Jednak z innych eksperymentów, których wyniki opublikowano również w 2017 r. wynika, że w określonych okolicznościach każdy może przeobrazić się w trolla. Zespół uczonych z amerykańskich uniwersytetów Stanforda i Cornella proponuje dwa podstawowe mechanizmy uwalniające z człowieka trolla: chwilowy nastrój i kontekst dyskusji (np. ekspozycję na wcześniejsze zachowania trolli). Poprzez eksperyment symulujący dyskusję online badacze udowodnili, że zarówno kiepski humor w danej chwili, jak i czytanie postów innych trolli znacznie zwiększa prawdopodobieństwo, że dana osoba sama zacznie zachowywać się jak definicyjny troll.
Właściwie, w sensie ścisłym, pochodny od tego słowa czasownik „trollować” oznacza wykonywanie działań charakterystycznych dla „trolla” w rozumieniu wyżej opisanym. Jednak ostatnio obserwuje się pewną modyfikację i rozwinięcie jego znaczenia na użytek specyficznego rodzaju dowcipów polegających na wkręcaniu lub satyrycznym przedrzeźnianiu kogoś lub czegoś.
Jarosław Kurski, naczelny „Gazety Wyborczej”, który dał się kiedyś nabrać na pochwalny wpis pod swoim adresem opublikowany na fałszywym profilu twitterowym Donalda Tuska, został „strollowany” właśnie w ten sposób. „Trollowaniem” było też masowe głosowanie na Annę Grodzką przez prawicowców w plebiscycie „Gazety Wyborczej” na Polkę Stulecia. Najwyższym poziomem takich akcji jest tzw. „trolling level master”, do której to kategorii zalicza się zakrojone na dużą skalę, pomysłowe dowcipy wykraczające poza wąskie grona internetowe, np. napisanie przez grupę naukowców serii fikcyjnych prac o tematyce genderowej, publikowanych następnie w prestiżowych periodykach i cytowanych, a to wszystko w celu zdemaskowaniu gender jako pseudonauki. Takie coś miało miejsce kilka lat temu.
Jan Kowalski może, ale nie musi być Janem Kowalskim
Mówiąc o przypadku wystrychniętego na dudka naczelnego „Wyborczej” wspomniałem „fałszywy profil twitterowy”. Obecnie nawet częściej używa się określenia „fejkowy” ( ang. „fake”) zapewne wskutek mody na tropienie i demaskowanie „fake news”, czyli publikacji mówiących nieprawdę, dezinformujących czy też manipulujących odbiorcą.
W tym przypadku było to „fałszywe konto” w sensie, jak się wydaje, najściślejszym. Ktoś stworzył na Twitterze profil udający Donalda Tuska. Dodajmy, że w tym przypadku fejk był dość łatwy do wykrycia, gdyż adres profilu stanowił enigmatyczny ciąg znaków, liczba obserwujących niewielka i nie było przy nim charakterystycznej niebieskiej gwiazdki oznaczającej profil potwierdzony, co często stosują osoby popularne, sławne i rozpoznawalne. Nie trzeba dodawać, iż fakt, że Jarosław Kurski nie zorientował się pomimo tak jasnych i wyraźnych znaków ostrzegawczych, łacno udostępniając pochwałę, którą dostał od fałszywego „Tuska”, był dodatkowym źródłem uciechy w kręgach internetowych.
Bot nie zawsze oszukuje
W sferze tzw. fejkowych i anonimowych kont panuje jednak generalnie dość duże zamierzanie pojęciowe. Nie każdy np. anonimowy profil jest profilem fałszywym. Nie każdy anonimowy profil i nawet nie każdy fałszywy, jest „botem” (o tym więcej w dalszej części tekstu). Jeśli np. kto tworzy konto „Obywatel Zeta Reticuli”, to z pewnością jego intencją jest ukrycie własnej tożsamości, ale nie jest to profil „fałszywy”, bo pod nikogo się nie podszywa. Można powiedzieć, że taki profil nie stanowi oszustwa, bo jego właściciel nie ukrywa, że jest anonimowy i nie udaje nikogo konkretnego.
Sprawy się komplikują, gdy ktoś użyje nie swojego nazwiska. Na przykład profil „Jan Kowalski” może być: a) Janem Kowalskim, b) kimś innym, kto udaje prawdziwego Jana Kowalskiego, c) kimś innym, kto nie udaje Jana Kowalskiego, ale przypadkowo użył tego nazwiska, d) kimś innym, kto używa nazwiska „Jan Kowalski” demonstracyjnie okazując w ten sposób swoją anonimowość lub, w bardziej kreatywnym wariancie, okazując demonstracyjnie swoją „nieistotność i przeciętność”.
Odpowiedzi na pytanie – dlaczego ten ktoś to robi - są tak zróżnicowane jak życie. Czyli w praktyce jest ich nieskończoność. Internauta ukrywa swoją tożsamość na Twitterze czy Facebooku, bo obawia się swojego szefa i współpracowników, zwłaszcza gdy ma temperament polityczny. Na Instagramie i w serwisach randkowych ukrywa się przed żoną lub mężem. Na tematycznych forach dyskusyjnych ukrywa się, bo woli zadawać pytania i zdobywać wiedzę anonimowo, a nie nie jako dający się zidentyfikować specjalista czy fachowiec.
Maski, maski
Docieramy do zagadnienia „tożsamości online”, które już od lat jest przedmiotem zainteresowania naukowców z wielu dziedzin. Dorian Wiszniewski i Richard Coyne w książce „Building Virtual Communities”, opublikowanej jeszcze w 2002 r. piszą o zasadzie „maskowania” tożsamości, znanej zresztą jeszcze przed pojawieniem się internetu. W sieci reguła „maski” czy „masek” staje się dużo bardziej widoczna w związku z wieloma decyzjami, jakie musi podjąć internauta w odniesieniu do swojego profilu/profili online. Musi odpowiadać na liczne pytania dotyczące wieku, płci, adresu, imienia, nazwiska, nazwy i tak dalej. Wraz z rosnącą aktywnością w sieci, musi swoją „maskę” rozbudowywać a jednocześnie tworzy się jego behawioralna „prawdziwa twarz” (?), utkana ze stylu pisania, słownictwa, tematyki zainteresowań, historii aktywności online i wielu innych informacji, które zostawia w cyberprzestrzeni nie zawsze zdając sobie z tego sprawę.
Maskowanie może pomagać ludziom mającym trudności w nawiązywaniu interakcji. Może też posłużyć jako mechanizm zapewniający bezpieczeństwo. Jednym z największych lęków współczesnych jest obawa o kradzież lub nadużycie tożsamości online. Ten, do pewnego stopnia uzasadniony, strach powstrzymuje ludzi przed dzieleniem się prawdą o sobie. Przywdziewając maskę, ludzie mogą komunikować się z pewną dozą pewności siebie, bez obaw.
Koncepcja maski jest pokrewna innej hipotezie dotyczącej internetowej tożsamości, zwanej „tożsamością mieszaną”, według której następuje nieustanna interakcja „ja” sieciowego z „ja” poza-internetowym, rzeczywistym (?). Aktualizacja osobowości wykreowanej i prezentowanej online wpływa na osobowość offline, ta znów wzbogaca „maskę” o kolejne elementy, i tak dalej. To skomplikowany proces. Tak skomplikowany jak ludzka natura.
William James, ojciec amerykańskiej psychologii, zasugerował kiedyś, że mamy tyle osobowości, ile jest sytuacji, w jakich się znajdujemy. Choć nasza cyfrowa tożsamość może być rozczłonkowana, wydaje się jasne, że wszystkie nasze wcielenia osobowości stworzone i prezentowane w sieci są cyfrowymi okruchami wciąż tej samej osoby tego samego naszego własnego i mimo wszystko integralnego „ja”. Gdyby było inaczej, to, wydaje mi się, że psychiatra musiałby zdiagnozować większość użytkowników internetu jako chorych na zaburzenie dysocjacyjne tożsamości.
Boja strollowała tsunami
Może więc nie jest to choroba psychiczna, ale zabawa w maski ma sobie coś uzależniającego. Komuś, kto założył jeden anonimowy profil, trudno oprzeć się przed dalszym tworzeniem kolejnych wcieleń, awatarów i profili. Dopiero, gdy jedna osoba, firma czy organizacja tworzy więcej kont społecznościowych, które nazwijmy ogólnie „fikcyjnymi”, można zacząć używać pojęcia „boty”, zwłaszcza, jeśli ich działanie jest jakoś zautomatyzowane. Słowo to ma jednak pierwotnie nieco inne znaczenie, o którym niżej. Wykreowane w ten sposób mnogie „monady internetowe” mogą wyglądać i zachowywać się rozmaicie, nie ukrywać swojej anonimowości, bądź udawać profile rzeczywistych ludzi, ale od pojedynczego anonima czy fałszywego konta odróżnia je działanie w grupie, czasem w bardzo wielkiej masie.
„Armii botów” używały kiedyś, choć otwarcie tego nie przyznawały, przeróżne „agencje social marketingu”. Wiele sztucznych zasięgów w mediach społecznościowych, dziesiątki i setki tysięcy lubiących i obserwujących wielu profili celebryckich to dużej mierze tego rodzaju „boty”, kupowane masowo na specjalnych giełdach „lajków”, „follołów” itp. Dziś częściej słyszy się o ich wykorzystaniu w polityce i wojnie propagandowej, przez partie a nawet służby specjalne państw (rosyjskie profile propagandowe z Ołgina). Zarówno Facebook jak i Twitter dziś nieco skuteczniej niż dekadę temu walczą z botami i sztucznymi zasięgami, jednak jest to wciąż bardzo widoczne zjawisko.
Warto przypomnieć, że wspomniane dwie społecznościówki mają odmienną politykę dotyczącą liczby profili zakładanych przez jedna osobę. Facebook zasadniczo uważa, że jeden człowiek to jeden profil. Twitter zaś nie ma nic przeciwko tworzeniu wielu profili przez jednego użytkownika. Dlaczego Twitter na to pozwala? Serwis ten uważa, że tzw. „boty” nie muszą wcale być czymś złym, w dodatku rozszerza się tu pojęcie profilu społecznościowego na coś bliższego „robotowi”, od czego zresztą słowo „bot” jest skrótem. Od dawna wiadomo, że tweetować mogą również maszyny i nie ma w tym nic złego, wręcz przeciwnie. Gdy 27 Lutego 2010 roku pewna boja, unosząca się na bezkresnych wodach Pacyfiku ostrzegawczo „ćwierknęła” w na Twitterze, cały świat wiedział, że fale tsunami wezbrane po wstrząsie sejsmicznym u wybrzeży Chile, zbliżają się do Hawajów. Archipelag zaś odetchnął z ulgą, bo to, co „tweetnęła” czujna boja, oznaczało, że wielka fala jest już tylko cieniem samej siebie.
Od tamtego czasu publikujące w społeczności Twittera roboty znacznie rozwinęły swoją aktywność. Automaty udzielają się nie tylko jako nadawcy rutynowych np. pogodowych, czy giełdowych komunikatów, ale również jako kanały satyryczne czy polityczne. Sam serwis szacuje, że jedno na dwadzieścia spośród kont tam utworzonych jest „botem”, czyli nie stoi za nim konkretna istota ludzka.
Bot pilnujący Wikipedii przed rosyjską propagandą
Tweetujące automaty przydają się do wielu pożytecznych zadań. Powiadamiają np. o wprowadzaniu zmian w hasłach Wikipedii. Jeden z nich wykrył, że 18 lipca 2014 roku jakiś przedstawiciel rosyjskich władz zmienił figurujący tam opis zestrzelenia samolotu MH17 linii Malaysian Airlines nad obszarem walk separatystów z wojskami ukraińskimi. Zamiast pierwotnego opisu wskazującego na oddziały separatystów znalazły się tam sformułowania wskazujące na armię ukraińską jako odpowiedzialną za katastrofę.
Maszyn czuwających nad zmianami jest więcej. Profil @parliamentedits publikuje na bieżąco doniesienia dotyczące zmian w wiki-artykułach poświęconych brytyjskim kwestiom parlamentarnym. Dość szybko znalazł naśladowców w wielu innych dziedzinach w Stanach Zjednoczonych, w Kanadzie i w Szwecji. W kanale pod adresem @valleyedits można znaleźć od niedawna np. zmiany w wikipedycznych hasłach na temat firm z Krzemowej Doliny.
Niektórzy aktywiści polityczni idą krok dalej i tworzą sztuczne profile w rodzaju @NSA_PRISMbot, którego zadaniem jest publikowanie informacji o danych osobowych, które może zbierać amerykańska Narodowa Agencja Bezpieczeństwa (NSA). Inny sztuczny twór angażuje się w debatę na temat prawa do posiadania broni w USA, publikując na przemian fikcyjne doniesienia o strzelaninach i argumenty zwolenników prawa do noszenia broni.
W Wielkiej Brytanii powstał serwis GaugeMap, którego zadaniem jest śledzenie poziomu wód w rzekach i sygnalizowanie zagrożeń powodziowych. System informacyjny opiera się na sieci czujników rozmieszczonych na brzegach rzek i w śluzach. Każde z tych urządzeń ma swoje własne konto na Twitterze, gdzie regularnie raportuje poziomy. Z upublicznianej w ten sposób na bieżąco informacji korzystają lokalne władze, media, służby i zwykli mieszkańcy.
Hejt czyli worek pojęciowy
Powyższe przykłady robotów i botów na Twitterze, zgodne są pierwotną definicją, która w nich niczego złego nie widziała. Bot internetowy, w najbardziej ogólnym znaczeniu tego słowa, to nie bohater sieciowej demonologii, lecz oprogramowanie, które wykonuje zautomatyzowane zadanie przez Internet. Precyzyjniej rzecz ujmując, bot jest zautomatyzowaną aplikacją służącą do wykonywania prostych i powtarzalnych zadań, które byłyby czasochłonne, prozaiczne lub niemożliwe do wykonania dla człowieka.
Podsumowując. Troll to cwany psychopata z sadystycznymi skłonnościami, który żyje dzięki temu, że na niego zwracamy uwagę, ale nie musi być anonimowy. Anonimowe konto nie musi być fejkiem ani botem, zarazem jednak może być trollem. Zaś bot to zautomatyzowany profil i nawet jeśli przyjąć, że może być „zły” to dopiero w dużej masie stanowi zagrożenie.
Czy można dołączyć do zestawu wyjaśnień tak modne ostatnio pojęcia „hejtera” i „hejtowania”? Jednak dość trudno się w tym przypadku odwołać do starych definicji. Można wprawdzie wrócić do angielskiego słowa „hate” („nienawidzić”), aby uznać za błędne 95 proc. użyć „hejtu” internecie, ale wydaje się, że to nie ma sensu, bo terminy „nienawiść”, „nienawidzić” oraz już właściwie w pełni polskie słowo „hejt” są odrębnymi pojęciami i chyba już nawet nie synonimami. Krótko mówiąc „hejt” oderwał się od pierwowzoru mówiącego o „nienawiści”. Obecnie to pojemny worek pojęciowy, którym umieszcza się wszystko co nie jest zgodne, miłe i pozytywne. W tym sensie należałoby walczyć z tym pojęciem bo rozmywa znaczenia starszych słów i utrudnia precyzyjne wyrażanie się.