Musimy nauczyć się żyć z nowym zagrożeniem. AI przekracza granicę realizmu [OPINIA]

Jeszcze kilka miesięcy temu żartowaliśmy z grafik i filmików generowanych przy pomocy sztucznej inteligencji (z ang. AI). Ludzie w nich przedstawiani bywali albo sztucznie piękni, albo koślawi – AI nie radziła sobie m.in. z palcami u rąk czy zębami. Postęp jest jednak nieubłagany i kilka obrazów, które ostatnio obiegły sieć, dobitnie pokazało, że odróżnienie grafik AI od zdjęć będzie zaraz niemożliwe.

Grafika ilustracyjna, wygenerowana przez sztuczną inteligencję, mająca przedstawiać "republikańskiego prezydenta przed tłumem ludzi" (Adobe Stock, Gaston)

Gdy w powszechnym użyciu pojawiły się AI-owe generatory obrazów i filmów, ich twory stawały się w dużej mierze obiektem żartów i kpin. I faktycznie, pierwsze próby wyglądały jak pijany sen robota, który nie do końca rozumie, jak powinien wyglądać człowiek. Dziwne, drobne zęby, których zwykle było zbyt dużo, czy nieodpowiednia liczba palców u rąk, a czasem także dodatkowe ręce czy nogi, to tylko niektóre z wad wczesnych grafik generowanych przy pomocy AI.

Wideo i obrazy generowane przez AI coraz bardziej realistyczne

Słynne stało się wideo mające przedstawiać aktora Willa Smitha jedzącego makaron. Wyglądało ono jak coś, co moglibyśmy zobaczyć w horrorze. Jednak rok później AI nie ma już żadnego problemu z wygenerowaniem w miarę realistycznie wyglądających ludzi, którzy jedzą:

Jak szybko rozwija się sztuczna inteligencja, najlepiej widać jednak na obrazach, które niedawno obiegły internet. Do tej pory, nawet jeśli człowiek był odwzorowany świetnie, to rozpoznać AI pozwalały drobne detale – pomyłki np. w tle, ubraniu, oczach. Obrazki, wygenerowane przy pomocy oprogramowania Lora AI, wprawiły w zdumienie, bo na pierwszy rzut oka w zasadzie niemożliwe jest odróżnienie ich od fotografii. A i po dokładniejszej analizie trudno jednoznacznie wskazać coś, co dawałoby jasny sygnał, że nie są to zrobione przez fotografa i wyretuszowane zdjęcia:

Za filmami szybko poszło wideo – i tu bardziej widać ograniczenia sztucznej inteligencji. Wygląda bardzo realistycznie, ale wciąż widać w mimice twarzy coś sztucznego. Ale czy gdyby ktoś dołożył do wideo głos i napisy, to na małym ekranie smartfona łatwo byłoby od razu poznać, że filmik został wygenerowany przez AI? Na pewno nie.

AI to potężne narzędzie w walce informacyjnej

Wystarczyło więc kilkanaście miesięcy, by sztuczna inteligencja przekroczyła swoisty Rubikon realizmu – i nie ma już raczej drogi odwrotu. Obserwując ten rozwój, towarzyszą mi dwa odczucia: z jednej strony zdumienie i podziw dla twórców, bo niesamowite jest tempo rozwoju tych narzędzi. A z drugiej: zagrożenia, bo nie jesteśmy w stanie zagwarantować etycznego wykorzystania AI.

Już teraz tysiące profili w mediach społecznościowych wykorzystują wygenerowane grafiki do zdobywania popularności, ale często też do siania dezinformacji. Podobnie jest z wideo. Im bardziej realistyczne efekty, tym łatwiej będzie manipulować opinią publiczną, szczególnie w polityce. Zresztą, osoby powszechnie znane i mające na tę opinię wpływ – np. Elon Musk czy niektórzy politycy – sami rozpowszechniają filmiki wygenerowane przez AI, będące jawnie fałszywką.

Rzecz w tym, że często ich nie oznaczają, przez co osoby mniej zorientowane lub niemające czasu na weryfikację mogą zwyczajnie uwierzyć w przedstawione treści i na tej podstawie wyrobić sobie jakiś pogląd. Elon Musk został ostro skrytykowany za udostępnienie takiego wideo, udającego spot kampanijny kandydatki Demokratów na prezydenta USA Kamali Harris.

Raptem w czwartek Donald Trump zamieścił na swoim profilu na portalu X wpis z filmikiem, na którym on i Elon Musk tańczą w rytm piosenki zespołu Bee Gees. Widać, że jest to ewidentnie niezbyt udane dzieło wygenerowane przy pomocy AI, ale przy tym tempie rozwoju za pół roku zapewne zobaczymy to samo, tylko wyglądające już zupełnie realistycznie.

Warto podkreślić, że niektóre z tych narzędzi są naprawdę w zasięgu każdej osoby. Owszem, żeby stworzyć bardzo realistyczny obraz – taki jak prezentowane kilka akapitów wyżej – potrzeba wciąż się napracować. Zadbać o detale. Czasem też stuningować to, co wygeneruje AI. Ale kilka dni temu platforma X Elona Muska udostępniła wersję 2.0 swojego AI, nazywanego Grok. Za jego pomocą wygenerowałem poniższe grafiki – zajęło mi to dosłownie 3 minuty. Nie trzeba było się starać, wystarczyło wskazać Grokowi, by stworzył „realistyczną fotografię”.

Na pierwszy rzut oka trudno jest odróżnić je od stockowych zdjęć, szczególnie pierwszą grafikę. Jedyny detal, który pozwala moim zdaniem zidentyfikować udział AI, to niezbyt udany kciuk mężczyzny – coś tam jest ewidentnie nie tak. Ale dopóki ktoś się nie przyjrzy, to wielkich różnic nie widać. W drugim przypadku jest nieco łatwiej, bo choć grafika wygląda realistycznie, to w detalach widać co najmniej dziwne, jak na ludzkie miasta, rozwiązania – jak np. tunel prowadzący donikąd na pierwszym planie.

Czy możemy bronić się przed AI-owymi fałszywkami?

To jednak pokazuje, jak szybko przesuwa się granica realizmu w przypadku obrazu – ruchomego czy nieruchomego – generowanego przez AI. Scenariuszy, w których za pomocą fałszywych, stworzonych przez AI filmów, ktoś uderza w karierę politycznego rywala albo konkurenta biznesowego, są miliony. Sporo też mówiło się o tzw. „revenge porn”, czyli filmach pornograficznych, do których podstawiane będą prawdziwe twarze istniejących osób. Im tańsza i lepsza technologia, tym łatwiej każdej osobie będzie się zemścić, zagrozić, zniszczyć.

Czy możemy się przed tym jakoś obronić? Owszem, w jeden, najważniejszy sposób: nie wierzyć we wszystko, co widzimy w sieci, szczególnie na portalach społecznościowych. Możliwie próbować weryfikować, szukać źródła, szczególnie w przypadku treści przedstawiających polityków czy sytuacje z kontekstem politycznym. To właśnie w social mediach największe żniwo zbierają osoby zarówno szukające poklasku, jak i manipulujące opinią publiczną. To tam najskuteczniej sieje się dezinformację, bo wszelakie filmy i zdjęcia rozchodzą się po Facebooku, Instagramie czy TikToku z prędkością światła.  

Unia Europejska przyjęła niedawno AI Act, czyli przepisy mające ograniczać zagrożenia wynikające ze sztucznej inteligencji. Nie sądzę jednak, by były one w stanie skutecznie chronić nas przed szerzeniem „fejków” generowanych przy pomocy AI. Problem dotyczy zresztą nie tylko obrazów, ale też dźwięku, a obywatele już mogą się stykać z oszustwami, w których ktoś za pomocą AI generuje wypowiedzi brzmiące jak głos bliskich nam osób. A regulacje po prostu nie nadążą za tempem rozwoju sztucznej inteligencji i będą bardzo trudne do egzekwowania.

Muszę przy tym podkreślić, że nie jestem przeciwnikiem rozwoju technologii i nie uważam, że zaraz świat zawali się z powodu sztucznej inteligencji. Kiedyś ludzie obawiali się prądu, potem internetu, dzisiaj te obawy można odnieść do AI. I tak jak w przypadku wielu technologii, tak i teraz należy edukować i mieć nadzieję, że nauczymy się odpowiedzialnie i z dystansem posługiwać także tą technologią.

Póki co zaś musimy uświadamiać sobie, jak szybki jest postęp. I być mentalnie gotowi na to, że w najbliższym czasie czeka nas zalew obrazów i filmików, które nie będą prawdziwe, a ich jedynym zadaniem będzie oszukiwanie i manipulowanie nami – w celu popchnięcia nas w objęcia tego czy innego polityka albo wyłudzenia od nas pieniędzy lub danych. Jest to więc zagrożenie, z którym musimy nauczyć się żyć.

Michał Wąsowski, zastępca szefa redakcji money.pl

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *