Podczas lipcowego sympozjum w Waszyngtonie, Sam Altman, CEO OpenAI, ostrzegał przed zbliżającą się falą nadużyć, której siłą napędową jest inteligencja maszynowa. Jak poważne jest niebezpieczeństwo płynące z deepfake’ów? W jakiego rodzaju machlojkach AI znajduje już zastosowanie?

Obawa przed podrobionymi połączeniami wideo generowanymi w czasie rzeczywistym rozprzestrzenia się w sieci. Prawdopodobnie każdy obił się o uszy przypadek 25 milionów dolarów, które przelał księgowy brytyjskiej firmy po rozmowie wideo z przełożonymi, którzy nakazali mu transakcję. Mówi się, że to połączenie było spreparowane.
Wielu ekspertów od bezpieczeństwa podchodzi do tej opowieści z rezerwą. Wśród nich znajduje się Patryk Gęborys, dyrektor ds. bezpieczeństwa w PZU. Nie lekceważy niebezpieczeństwa związanego z użyciem AI przez przestępców, lecz zaznacza, że tradycyjne metody oparte na technikach manipulacji nadal są efektywne i zagrażające. Sprawcy doskonalą je, coraz częściej korzystając z inteligentnych systemów do konstruowania scenariuszy konwersacji z ofiarami, czy też do planowania ataków.
Patryk wspomina także o nowym oszustwie wspieranym przez AI, stanowiącym zagrożenie dla przedsiębiorstw, które bazuje na zdalnej rekrutacji. Za tą działalnością stoją obywatele Korei Północnej. Przestępcy przesyłają podania o pracę zdalną w USA i przystępują do procesu kwalifikacji. Podczas rozmów generowany jest sztuczny wizerunek lub głos, aby wprowadzić w błąd rekruterów co do pochodzenia kandydata. Ich celem jest zdobycie zatrudnienia, co umożliwi przestępcom dostęp do wnętrza firmy.
Zagrożenie wewnętrzne, jak to określa Patryk, stanowi jeden z kluczowych elementów ryzyka, z którymi muszą zmierzyć się firmy. Nie trzeba szukać daleko – niedawno pracownik jednego z urzędów samorządowych skopiował i wyniósł dane dotyczące 5 tysięcy osób.
Zapraszamy do odsłuchania podcastu, jak również pozostałych programów audio zrealizowanych w ramach serii podcastów Scamming out!


Bankier.pl


Bankier.pl
