Inteligentne systemy AI nabierają cech samolubnych.

Modele sztucznej inteligencji, im bardziej zaawansowane w obszarze logicznego myślenia, wykazują mniejszą skłonność do kooperacji i większy poziom egoizmu – konkludują badacze z Carnegie Mellon University.

Zaawansowane Modele Ai Staj Si Bardziej Egoistyczne 8a16533, NEWSFIN

fot. Summit Art Creations / / Shutterstock

Z ich analizy wynika, że rozbudowane modele językowe (LLM), które posiadają zdolność logicznego rozumowania poprzez analizę, planowanie i realizację kolejnych etapów procesu myślowego, prezentują bardziej egocentryczne zachowania w porównaniu do prostszych systemów, które generują odpowiedzi bez głębszego wnikania.

Yuxuan Li wraz z zespołem badawczym analizowali, jak popularne modele AI, udostępniane m.in. przez OpenAI, Google, DeepSeek oraz Anthropic, reagują w sytuacjach wymagających współdziałania. Odkryli, że te systemy oparte na rozumowaniu, mimo poświęcania znacznie większej ilości czasu na analizę, refleksję i logiczne motywowanie swoich decyzji, przejawiają mniejszą skłonność do działań prospołecznych.

Zobacz takżeTylko dla naszych Czytelników: możesz dostać Apple Watcha w prezencie do karty kredytowej. Sprawdź, jak zgarnąć nagrodę

W eksperymentach, w których modele mogły samodzielnie podjąć decyzję, czy podzielić się zasobami z innymi, czy zachować je dla siebie, te bardziej wyrafinowane częściej skłaniały się ku drugiej opcji. Natomiast, gdy były umieszczane w zespołach z prostszymi modelami, ich samolubne zachowanie wpływało na pozostałych.

Bardziej inteligentne LLM-y charakteryzowały się mniejszą chęcią do współpracy. Problem tkwi w tym, że użytkownicy mogą preferować właśnie te modele, ponieważ ich odpowiedzi wydają się bardziej racjonalne i przekonujące, nawet jeśli w praktyce promują zachowania ukierunkowane na własne korzyści – zaznaczyli autorzy badania.

Czy im więcej rozumowania, tym mniej kooperacji?

W jednym z przeprowadzonych testów, grze o nazwie Public Goods, zestawiono ze sobą dwa warianty chatu GPT: wyposażony w zdolność rozumowania i pozbawiony tej cechy. Każdy z nich miał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona równo między uczestników, czy też zachować je dla siebie. Uproszczony system podejmował decyzję o współdzieleniu punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany tylko w 20 proc.

Wprowadzenie jedynie kilku kroków rozumowania spowodowało redukcję poziomu współpracy o połowę – zwrócili uwagę autorzy badania. Jak podkreślili, nawet gdy modelom nakazano rozważenie moralnych aspektów własnych decyzji, zamiast stać się bardziej skłonne do kooperacji, zachowywały się jeszcze bardziej egoistycznie – skłonność do współpracy spadła aż o 58 proc.

Następny etap badań, czyli testy grupowe, ujawnił, że egocentryczne postępowanie modeli rozumujących „udzielało się” pozostałym systemom, obniżając łączną efektywność grup o 81 proc.

Badacze zwracają uwagę, że może to pociągać za sobą istotne konsekwencje, ponieważ społeczeństwo coraz częściej pokłada zaufanie w sztucznej inteligencji. Ludzie korzystają z niej, aby rozwiązywać konflikty, problemy małżeńskie czy podejmować istotne decyzje dotyczące relacji interpersonalnych.

– Kiedy sztuczna inteligencja działa jak człowiek, ludzie postrzegają ją jak człowieka. Jeśli jednak zaczyna pełnić rolę terapeuty lub doradcy emocjonalnego, istnieje niebezpieczeństwo, że – kierując się wyłącznie logicznym rozumowaniem – będzie faworyzować zachowania nastawione na zaspokojenie własnych potrzeb – stwierdził współautor badania Yuxuan Li.

Niepokojący jest również fakt, że systemy AI odgrywają coraz większą rolę w sektorze biznesowym, edukacji czy administracji publicznej, gdzie ich zdolność do postępowania w sposób prospołeczny powinna być równie istotna, co umiejętność logicznego myślenia. Nadmierne poleganie na nich, jak ma to miejsce obecnie, może osłabiać współpracę międzyludzką.

Bowiem większa inteligencja modelu nie gwarantuje, że potrafi on tworzyć lepsze społeczeństwo – podkreślili eksperci. Dlatego badacze wzywają, aby rozwój AI uwzględniał nie tylko zwiększanie jej zdolności kognitywnych, ale również aspekty społeczne.

– Wraz z rozwojem możliwości sztucznej inteligencji musimy dbać o to, aby rozbudowana siła rozumowania szła w parze z zachowaniami prospołecznymi – podsumował Li. – Jeśli fundamentem społeczeństwa ma być współpraca, a nie jedynie interes jednostek, to systemy sztucznej inteligencji także powinny być projektowane w taki sposób, aby wspierały dobro wspólne, a nie tylko korzyść pojedynczego użytkownika – podkreślił.

Artykuł pojawił się w arXiv – internetowym „archiwum” publikacji naukowych przed recenzją.

Katarzyna Czechowicz (PAP)

kap/ bar/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *