Rafał Brzoska czy prezydent Duda obiecują ci duże pieniądze z inwestycji? Oszuści chętnie korzystają z deepfake’ów

Naukowa i Akademicka Sieć Komputerowa poinformowała o rosnącej liczbie oszustw wykorzystujących wizerunki znanych osób, tzw. deepfake. W oszustwach wykorzystywano m.in. wizerunek prezydenta Andrzeja Dudy i ministry zdrowia Izabeli Leszczyny.

Rafal Brzoska Czy Prezydent Duda Obiecuja Ci Duze Pieniadze Z Inwestycji Oszusci Chetnie Korzystaja Z Deepfakeoacutew 1142ea3, NEWSFIN

/ FORUM

NASK poinformowała, że w zidentyfikowanych oszustwach typu deepfake, na filmach krążących w sieci do "wyjątkowo korzystnych" inwestycji finansowych mieli zachęcać prezydent Andrzej Duda, ministra zdrowia Izabela Leszczyna, piłkarz Robert Lewandowski, prezes InPostu Rafał Brzoska czy influencer Kamil Labudda (Budda).

Wymienione osoby – jak podaje NASK – mówiły "swoim" głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Eksperci zwracają uwagę, że od początku maja pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake i wizerunki znanych osób, które wyglądają coraz bardziej wiarygodnie.

"O oszustwach bazujących na technologii deepfake po raz kolejny zrobiło się głośno w marcu 2024 r. Na Facebooku pojawiły się wówczas nagrania wideo, w których wykorzystano wizerunek prezesa InPostu do reklamowania fałszywej inwestycji. Mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni" – pisze w komunikacie NASK.

Jak zaznacza NASK, w nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów.

"Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu +text-to-speech+, wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii +speech-to-speech+, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału"– wyjaśnia cytowana w komunikacie kierująca w NASK Zespołem Analizy Deepfake Ewelina Bartuzi-Trokielewicz.

NASK podała, że materiały typu deepfake często są dodatkowo osadzone w szablonie przekazu telewizyjnego, najczęściej programu informacyjnego, co ma dodatkowo podkreślać rangę przekazywanych treści i zwiększać ich wiarygodność.

"Łatwość, z jaką można stworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i dezinformacji. Dlatego istotne jest zwiększenie świadomości społecznej na temat rozwoju i możliwości technologii generowania treści syntetycznych. Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji – ostrzegła cytowana w komunikacie ekspertka NASK.

autor: Marcin Chomiuk

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *