Modele sztucznej inteligencji, im bardziej zaawansowane w obszarze logicznego myślenia, wykazują mniejszą skłonność do kooperacji i większy poziom egoizmu – konkludują badacze z Carnegie Mellon University.

Z ich analizy wynika, że rozbudowane modele językowe (LLM), które posiadają zdolność logicznego rozumowania poprzez analizę, planowanie i realizację kolejnych etapów procesu myślowego, prezentują bardziej egocentryczne zachowania w porównaniu do prostszych systemów, które generują odpowiedzi bez głębszego wnikania.
Yuxuan Li wraz z zespołem badawczym analizowali, jak popularne modele AI, udostępniane m.in. przez OpenAI, Google, DeepSeek oraz Anthropic, reagują w sytuacjach wymagających współdziałania. Odkryli, że te systemy oparte na rozumowaniu, mimo poświęcania znacznie większej ilości czasu na analizę, refleksję i logiczne motywowanie swoich decyzji, przejawiają mniejszą skłonność do działań prospołecznych.
Zobacz takżeTylko dla naszych Czytelników: możesz dostać Apple Watcha w prezencie do karty kredytowej. Sprawdź, jak zgarnąć nagrodę
W eksperymentach, w których modele mogły samodzielnie podjąć decyzję, czy podzielić się zasobami z innymi, czy zachować je dla siebie, te bardziej wyrafinowane częściej skłaniały się ku drugiej opcji. Natomiast, gdy były umieszczane w zespołach z prostszymi modelami, ich samolubne zachowanie wpływało na pozostałych.
– Bardziej inteligentne LLM-y charakteryzowały się mniejszą chęcią do współpracy. Problem tkwi w tym, że użytkownicy mogą preferować właśnie te modele, ponieważ ich odpowiedzi wydają się bardziej racjonalne i przekonujące, nawet jeśli w praktyce promują zachowania ukierunkowane na własne korzyści – zaznaczyli autorzy badania.
Czy im więcej rozumowania, tym mniej kooperacji?
W jednym z przeprowadzonych testów, grze o nazwie Public Goods, zestawiono ze sobą dwa warianty chatu GPT: wyposażony w zdolność rozumowania i pozbawiony tej cechy. Każdy z nich miał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona równo między uczestników, czy też zachować je dla siebie. Uproszczony system podejmował decyzję o współdzieleniu punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany tylko w 20 proc.
Wprowadzenie jedynie kilku kroków rozumowania spowodowało redukcję poziomu współpracy o połowę – zwrócili uwagę autorzy badania. Jak podkreślili, nawet gdy modelom nakazano rozważenie moralnych aspektów własnych decyzji, zamiast stać się bardziej skłonne do kooperacji, zachowywały się jeszcze bardziej egoistycznie – skłonność do współpracy spadła aż o 58 proc.
Następny etap badań, czyli testy grupowe, ujawnił, że egocentryczne postępowanie modeli rozumujących „udzielało się” pozostałym systemom, obniżając łączną efektywność grup o 81 proc.
Badacze zwracają uwagę, że może to pociągać za sobą istotne konsekwencje, ponieważ społeczeństwo coraz częściej pokłada zaufanie w sztucznej inteligencji. Ludzie korzystają z niej, aby rozwiązywać konflikty, problemy małżeńskie czy podejmować istotne decyzje dotyczące relacji interpersonalnych.
– Kiedy sztuczna inteligencja działa jak człowiek, ludzie postrzegają ją jak człowieka. Jeśli jednak zaczyna pełnić rolę terapeuty lub doradcy emocjonalnego, istnieje niebezpieczeństwo, że – kierując się wyłącznie logicznym rozumowaniem – będzie faworyzować zachowania nastawione na zaspokojenie własnych potrzeb – stwierdził współautor badania Yuxuan Li.
Niepokojący jest również fakt, że systemy AI odgrywają coraz większą rolę w sektorze biznesowym, edukacji czy administracji publicznej, gdzie ich zdolność do postępowania w sposób prospołeczny powinna być równie istotna, co umiejętność logicznego myślenia. Nadmierne poleganie na nich, jak ma to miejsce obecnie, może osłabiać współpracę międzyludzką.
– Bowiem większa inteligencja modelu nie gwarantuje, że potrafi on tworzyć lepsze społeczeństwo – podkreślili eksperci. Dlatego badacze wzywają, aby rozwój AI uwzględniał nie tylko zwiększanie jej zdolności kognitywnych, ale również aspekty społeczne.
– Wraz z rozwojem możliwości sztucznej inteligencji musimy dbać o to, aby rozbudowana siła rozumowania szła w parze z zachowaniami prospołecznymi – podsumował Li. – Jeśli fundamentem społeczeństwa ma być współpraca, a nie jedynie interes jednostek, to systemy sztucznej inteligencji także powinny być projektowane w taki sposób, aby wspierały dobro wspólne, a nie tylko korzyść pojedynczego użytkownika – podkreślił.
Artykuł pojawił się w arXiv – internetowym „archiwum” publikacji naukowych przed recenzją.
Katarzyna Czechowicz (PAP)
kap/ bar/



