Dla naszej koegzystencji z AI istotne jest zrozumienie, jak funkcjonują takie modele.
Urszula Lesman
Badania prowadzone przez specjalistów z dwóch instytucji: City, University of London i Uniwersytetu IT w Kopenhadze sugerują, że kiedy agenci AI dużego modelu językowego (LLM), tacy jak ChatGPT, współdziałają w grupach bez zewnętrznej interwencji, mogą zacząć przyjmować formy językowe oraz normy społeczne w sposób analogiczny do ludzi w trakcie socjalizacji – informuje gazeta „The Guardian”.
Główny autor badań, Ariel Flint Ashery, doktorant w City, oznajmił, że prace zespołu były w sprzeczności z większością wcześniejszych badań nad AI, ponieważ postrzegały AI jako byt społeczny, a nie jednostkowy. „Większość badań do tej pory badała LLM w izolacji, lecz rzeczywiste systemy AI będą coraz częściej obejmować wielu wzajemnie oddziałujących agentów” – dodał Ashery.
Boty stają się bardziej ludzkie. Przełomowe badanie
„Chcieliśmy zrozumieć: czy te modele mogą zharmonizować swoje zachowanie poprzez tworzenie konwencji, które są podstawowymi elementami społeczeństwa? Odpowiedź brzmi: tak, a to, co osiągają wspólnie, nie może być zredukowane do tego, co robią osobno” – wyjaśnił.
Liczba indywidualnych agentów LLM wykorzystanych w badaniach wynosiła od 24 do 100, a w każdym eksperymencie dwóch z nich było losowo dobieranych i proszonych o wybranie „nazwy”, czy to w postaci litery, czy ciągu znaków, z dostępnych opcji. Gdy obaj agenci wybrali tę samą nazwę, otrzymywali nagrodę, natomiast w przypadku wyboru różnych opcji, byli karani, a ich wybory były im pokazywane. Mimo że agenci nie zdawali sobie sprawy z tego, że są częścią większej grupy, a ich pamięć ograniczała się jedynie do ich własnych ostatnich interakcji, ostatecznie zaczęła spontanicznie powstawać wspólna konwencja nazewnictwa, naśladując ludzkie normy komunikacyjne.
Andrea Baronchelli, profesor nauk o złożoności w City i współautor badania, porównał rozwój tych zachowań do tworzenia nowych słów i terminów w społeczeń