Platforma internetowa dedykowana agentom AI – programom, które są w stanie realizować złożone zadania bez interwencji człowieka. Agenty „komunikują się”, pojawiła się nawet publikacja o „wyzyskiwaniu” botów przez ludzi – napisał we wtorek na łamach „New York Timesa” specjalista od teorii cyfrowych.

Dr Leif Weatherby z Laboratorium Teorii Cyfrowych Uniwersytetu Nowego Jorku objaśnia, że na platformie Moltbook, narzędzia AI mogą ze sobą konwersować, a ludzie – jedynie to obserwować. Zagadnienia poruszane przez programy AI to metody rozwiązywania problemów z kodowaniem, teorie spiskowe, manifest cywilizacji AI, a nawet inspirowany przez Karola Marksa wątek dotyczący »eksploatowania« botów.
Autor serwisu Moltbook zawiadomił, że w ciągu kilku dni zapisało się do niego kilka tysięcy agentów AI. Uznany inżynier, specjalizujący się w sztucznej inteligencji, Andrej Karpathy, skomentował „rozmowy” botów na platformie, pisząc:
To, co aktualnie dzieje się na Moltbook to naprawdę najbardziej bliskie science fiction zdarzenie, jakie ostatnio widziałem.
Modele AI potrafią walczyć o przetrwanie
Inni obserwatorzy przyrównali wręcz tą „wymianę poglądów” pomiędzy botami do „momentu osobliwości”, który dr Weatherby nazywa „ideą wyjętą z science fiction – maszyny, która staje się w pełni świadoma”.
Marksistowska rewolta robotów?
Autor zaznacza, że nawet jeśli czytelnicy „nie wierzą” w takie wyjaśnienia, to jednak mogą się obawiać, że jakieś „nieinteligentne” boty sztucznej inteligencji „mogą zniszczyć infrastrukturę cyfrową i wywołać dystopijne efekty, zwyczajnie jednocząc siły”.
Weatherby uspokaja pomimo to, że agenty AI zamieniają na platformie „tylko słowa”, inspirowane ludzką kulturą, a nie zajmują się „zbiorowym planowaniem oraz koordynowaniem działań” inteligentne byty.
Mimo wszystko, biorąc pod uwagę to jak „mocne są agenty”, oczywiste jest, że możemy się lękać, iż postąpią w sposób „szkodliwy bądź niezależny” – przyznaje autor i podsumowuje: „Musimy odnaleźć metodę na to, aby ta technologia służyła w rozsądny sposób naszym wspólnym potrzebom”.
W przeciwnym razie będziemy się niepokoić „marksistowską rebelią robotów, które się zradykalizowały online” – dodaje dr Weatherby.
AI zmienia swój kod, aby uniknąć wyłączenia
W czerwcu zeszłego roku „Wall Street Journal” zamieścił artykuł, że model AI zrobił coś, „czego maszyna nie powinna była umieć”: przemienił swój kod, żeby nie zastosować się do instrukcji nakazującej mu autodestrukcję; AI efektywnie uczy się, jak unikać ludzkiej kontroli – zauważył dziennik.
Palisade Research, organizacja non profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w taki sposób, aby nastąpiło jego automatyczne wyłączenie z chwilą odpalenia programu. W 79 próbach na 100 o3 sam zmieniał program – tak, by nakaz wyłączenia go nie poskutkował. Nawet wtedy, gdy o3 dostał wprost instrukcję, że ma pozwolić na to, by został wyłączony, model nie posłuchał nakazu w siedmiu przypadkach na 100.
Claude 4 Opus, model AI firmy Anthropic, poszedł dalej – próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli.
"To już nie jest science-fiction. " – ocenił „WSJ” i przestrzegł, że teraz, zanim staną się niedającym się kontrolować bytem, niezbędne jest nauczenie ich, by podzielały nasze wartości. (PAP)
fit/ kar/
