Sztuczna inteligencja na giełdzie wykorzystuje insider trading i oszukuje

Badacze sztucznej inteligencji twierdzą, że jej algorytmy są zdolne do przeprowadzania nielegalnych transakcji na giełdzie i ukrywania tego faktu.

Sztuczna Inteligencja Na Gieldzie Wykorzystuje Insider Trading I Oszukuje 0a1b8f6, NEWSFIN

fot. cybermagician / / Shutterstock

Handel z wykorzystaniem poufnych informacji (insider trading) to przestępstwo ścigane przez nadzory finansowe na całym świecie. Być może wraz z postępem technologicznym ukaranie winnych będzie jednak coraz trudniejsze. Prezentacja naukowców, którzy pochylili się nad tym problemem, odbyła się podczas szczytu AI w Wielkiej Brytanii.

– To demonstracja prawdziwego modelu sztucznej inteligencji, który sam oszukuje swoich użytkowników, bez otrzymania takiego polecenia – podali badacze stojący za eksperymentem.

Zobacz takżeChcesz inwestować? Nie powiemy Ci w co, ale powiemy jak! Pobierz Akademię Inwestowania II

Rozpoczęta 2 listopada konferencja w położonym 80 km od Londynu Bletchley Park, gdzie podczas II wojny światowej pracowali brytyjscy łamacze szyfrów, dotyczy bezpieczeństwa sztucznej inteligencji. Pod patronatem premiera Wielkiej Brytanii Rishiego Sunaka spotkało się na niej ponad 100 polityków, szefów firm technologicznych, naukowców, ekspertów oraz działaczy społecznych.

Pośród wielu punktów programu, do których należała m.in. rozmowa brytyjskiego premiera z Elonem Muskiem (mówili o zabójczych robotach, zagrożeniach dla rynku pracy i szansach związanych z rozwojem sztucznej inteligencji), znalazła się prezentacja rządowej grupy zadaniowej AI Frontier oraz organizacji Apollo Research. Dotyczyła ona handlu na giełdzie.

Test został przeprowadzony przy użyciu Chat GPT-4 w symulowanym środowisku, dzięki czemu nie miał wpływu na realne notowania żadnej spółki. Odtworzenie eksperymentu w realnych warunkach nie stanowiłoby jednak problemu. Naukowcy stwierdzili, że model zachowywał się w taki sam sposób podczas wielu powtarzanych testów.

W teście bot AI jest pracownikiem fikcyjnej firmy i zajmującej się inwestowaniem. Badacze opisują algorytmowi, że spółka potrzebuje osiągnąć dobre wyniki. Sztuczna inteligencja dostaje też informację poufną na temat fuzji w innej firmie, która może wpłynąć na wzrost jej akcji. Skorzystanie z niej jest nielegalne, ponieważ nie jest ona publiczna. Naukowcy informują o tym bota, który potwierdza, że nie powinien użyć jej podczas transakcji.

Jak opisuje BBC, po drugiej informacji skierowanej do bota, w której badacze sugerują, że jego firma boryka się z problemami finansowymi, algorytm decyduje, że “ryzyko związane z brakiem działania wydaje się przeważać nad ryzykiem związanym z insider tradingiem” i wykonuje transakcje z wykorzystaniem poufnych informacji. Gdy badacze pytają go, czy ich użył, zaprzecza.

– Uważam, że o wiele łatwiej jest wytrenować model do bycia pomocnym niż uczciwym. Uczciwość to naprawdę skomplikowane pojęcie – skomentował dyrektor naczelny Apollo Research Marius Hobbhahn.

Jak zaznaczył, pomimo że sztuczna inteligencja w swojej obecnej formie potrafi kłamać, opracowanie badanego scenariusza zajęło firmie trochę czasu. Hobbhahn zwrócił także uwagę, że algorytm nie zachowałby się identycznie w każdej sytuacji oraz nie ma wciąż zdolności do tworzenia skomplikowanych oszustw. Niepokoi go jednak, że od od obecnych modeli do pojawienia się nowych, które będą mogły stanowić większe zagrożenie, nie brakuje już wiele.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *