AI: Specjalista od fake newsów. Ryzykowne, zwięzłe i krzykliwe materiały.

„Shitposty” funkcjonują jak internetowy fast food i stanowią „puste wartości odżywcze mentalne” – stwierdził w rozmowie z PAP dr Jakub Kuś, specjalista od psychologii nowych technologii z Uniwersytetu SWPS. Ewelina Bartuzi-Trokielewicz z NASK dodała, że krótkie, prowokacyjne materiały umieszczają w sieci „farmy polubień” i testują reakcje oraz postępowanie odbiorców.

Ai Ekspertem Z Dezinformacji Niebezpieczne Krtkie Prowokacyjne Treci 7467a88, NEWSFIN

fot. Collagery / / Shutterstock

Według opinii dra Kusia, nawyk do takich treści wpływa na skupienie i pracę mózgu. Ekspert podkreślił, że jest to szczególnie groźne dla osób w okresie rozwoju.

Jeżeli młody człowiek przyzwyczai się do permanentnego oglądania krótkich, łatwych materiałów, w życiu dorosłym może mieć trudności z krytyczną oceną – stwierdził.

Przykładem „shitposta” wygenerowanego przez SI jest grafika krążąca w internecie, przedstawiająca dziewczynę siedzącą za kierownicą pojazdu, trzymającą na kolanach psa. W zawartości udostępnianego postu sugerowano, że 12-latka miała rzekomo zostać zatrzymana przez policję, kiedy usiłowała ocalić zwierzę. Na platformie X grafika została udostępniona w połowie października przez konto tintinpapa1 i uzyskała 15,4 mln odsłon. Dwa dni wcześniej identyczna treść pojawiła się na Facebooku, wywołując 66 tys. reakcji i ponad 2 tys. udostępnień.

Zobacz takżeTylko dla naszych Czytelników: możesz dostać Apple Watcha w prezencie do karty kredytowej. Sprawdź, jak zgarnąć nagrodę

Pod wpisami zawierającymi grafikę, widoczna jest informacja udostępniona przez chatbot Grok, według której grafika została stworzona przez SI. Grok zwraca uwagę na to, że strona kierownicy jest nieprawidłowa, na desce rozdzielczej brakuje zestawu wskaźników, a wloty powietrza dla pasażerów są wypaczone i zniekształcone.

Pomimo pozornej prostoty, „shitposting” bywa wykorzystywany również przez polityków i instytucje państwowe. 19 października prezydent Stanów Zjednoczonych Donald Trump udostępnił na portalu Truth Social filmik wygenerowany przez sztuczną inteligencję, na którym widać go pilotującego samolot myśliwski z napisem „King Trump” i zrzucającego brązową substancję na protestujących obywateli. Post był odpowiedzią na trwające w USA manifestacje pod hasłem „No Kings”, wyrażające sprzeciw wobec administracji Trumpa.

Zdaniem Eweliny Bartuzi-Trokielewicz z NASK, publikowanie materiałów stworzonych przez sztuczną inteligencję przez osoby publiczne to nowa strategia komunikacji. – Ten absurd i prowokacje występujące w takich treściach nie są już jedynie gestem kulturowym lub przejawem kreatywności, ale także składnikiem przemyślanej gry o uwagę i emocje głosujących – podkreśliła ekspertka. Jak dodała, celem tych działań nie jest bezpośrednie przekonywanie do konkretnych poglądów, ale podważanie powagi dyskusji publicznej.

Wcześniej, 3 maja br., na portalu Truth Social Donald Trump umieścił stworzony przez sztuczną inteligencję portret samego siebie jako papieża. Wpis zyskał 37,7 tys. polubień i został udostępniony 8,5 tys. razy. Tę samą grafikę Biały Dom opublikował na portalu X, gromadząc 110,6 mln wyświetleń oraz 194 tys. polubień. Jak informował „The New York Times”, w maju Trump wyznał dziennikarzom, że nie jest twórcą tej grafiki i nie miał z nią żadnego powiązania.

– Trump przesuwa bariery dopuszczalnego języka, aby utrwalić przeświadczenie, że wszystko jest przysłowiowym memem. On buduje wizerunek „lidera z internetu”, mówi zabawnym językiem, a nie językiem instytucji i to umożliwia mu dotarcie bezpośrednio do uczuć odbiorców – zaznaczyła specjalistka.

Według Kusia, w przypadku Trumpa mamy do czynienia z politykiem, który doskonale wie, co robi, ponieważ takie materiały są atrakcyjne dla jego zwolenników. Ekspert zwrócił jednak uwagę, że może to wywoływać wzrost dezinformacji. – To poważny problem przy rozwoju SI. Przy obecnej technologii nie potrzeba wiele, żeby utworzyć deepfake’a – zaalarmował ekspert.

Wygenerowane przez sztuczną inteligencję grafiki udostępnił także premier Izraela Benjamin Netanjahu. 9 października opublikował na portalu X stworzone przez SI zdjęcie przedstawiające jego i Donalda Trumpa z Pokojową Nagrodą Nobla. Nad zdjęciem Netanjahu napisał „Dajcie Donaldowi Trumpowi Pokojową Nagrodę Nobla – zasługuje na to”. Post zyskał 5 mln wyświetleń, a grafikę udostępnił dalej sam Trump na platformie Truth Social.

Bartuzi-Trokielewicz zauważyła, że przedstawiciele władzy, używając ironicznego i chaotycznego języka, sprawiają, że granica między żartem a deklaracjami politycznymi staje się niewyraźna. Jak dodała, przez to, że użytkownicy mogą reagować na emocje, a nie na fakty, to wiara w instytucje może ulec osłabieniu. Podkreśliła, że te materiały mogą pełnić rozmaite funkcje – od prowokacji, poprzez autoironię, po eksperyment społeczny. Jak dodała, „shitpost” może być także formą komentarza dotyczącego kultury przesytu, w której wartość materiałów ocenia się zasięgiem, a nie samą zawartością.

Z kolei dr Kuś, zapytany o powody popularności „shitpostingowych” treści, porównał to zjawisko do spożywania fast foodów. – Niektórzy ludzie lubią najeść się nie do końca zdrowym pożywieniem, tak samo niektórzy spożywają „puste wartości odżywcze mentalne”. Takie informacje nic nam nie dają, ale „wypełniają” nasz system poznawczy – ocenił ekspert. Jego zdaniem problem jest istotny, ponieważ niektórzy potrafią spędzać długie godziny na przeglądaniu bezwartościowych treści. – Ludziom często wydaje się, że to forma relaksu, jednak tak nie jest, bo nasz mózg cały czas pracuje, cały czas analizuje informacje – podkreślił.

Ekspert zaznaczył również, że zjawisko to może wpasowywać się w element wojny hybrydowej. – To idealny sposób, by „ogłupić” internautów w obcym państwie. W chwili kryzysu ludzie nie będą wiedzieć, w co mogą wierzyć. W przypadku zagrożenia dezinformacją sami stajemy się potencjalnymi ofiarami – zauważył.

Kuś wskazał także, że internet dla wielu osób stanowi odskocznię od życia codziennego i stresu, co wiąże się z psychologicznym zjawiskiem tzw. cyberwędrówki. – W tym przypadku wędrujemy od strony do strony, od mema do mema. Gdyby ktoś zapytał nas, co dokładnie widzieliśmy w tym czasie, mielibyśmy problem z odpowiedzią, bo tak naprawdę niczego nie przyswoiliśmy, a jedynie „zapełniliśmy” nasz system poznawczy – wytłumaczył.

Bartuzi-Trokielewicz zwróciła uwagę na regulacje mające zapobiegać zacieraniu się granicy między wolnością słowa a manipulacją czy dezinformacją. Jednym z nich jest rozporządzenie dotyczące sztucznej inteligencji (AI Act) w Unii Europejskiej, które wprowadza obowiązek oznaczania materiałów stworzonych przez sztuczną inteligencję. Z kolei Akt o usługach cyfrowych (DSA) nakłada na platformy społecznościowe i innych dostawców usług cyfrowych obowiązek aktywnego ograniczania rozpowszechniania dezinformacji i szkodliwych treści, a także większej przejrzystości algorytmów i moderacji.

Weronika Moszpańska, Piotr Gregorczyk (PAP)

wm/ grg/ bst/ jpn/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *