
Agenci AI powinni być zdolni do realizacji celów autonomicznie, bez ludzkiego nadzoru
Maria Krzos
Reklama
Z niniejszego artykułu wyniesiesz:
- Dlaczego Andrej Karpathy uważa, że cyfrowe byty AI nie wkroczą w rolę zastępczą dla ludzi pracy w roku 2025?
- Jakie bariery stoją na drodze agentów AI według Andreja Karpathy’ego w obecnym czasie?
- Jak prezentuje się rok 2025 w kontekście rozwoju agentów AI?
- Jakie niebezpieczeństwo wiąże się z pomyłkami generowanymi przez agentów AI?
Andrej Karpathy jest słowacko-kanadyjskim specjalistą w dziedzinie informatyki i badaczem inteligencji maszynowej, współzałożycielem OpenAI (aktualnie nie jest związany z tą firmą) oraz byłym szefem działu AI w firmie Tesla. Uzyskał tytuł doktora w dziedzinie uczenia maszynowego na Uniwersytecie Stanforda. Jego obszary specjalizacji to sieci neuronowe, głębokie uczenie oraz widzenie komputerowe. Obecnie prowadzi projekty edukacyjne powiązane ze sztuczną inteligencją w Eureka Labs.
Reklama Reklama
Karpathy był ostatnio gościem w programie „The Dwarkesh Podcast”. Gospodarz – Dwarkesh Patel – rozpoczął konwersację od pytania odnoszącego się do wpisu Karpathy’ego na platformie X, traktującego o potencjale agentów AI (którzy mogą być kluczowym elementem w ewolucji AGI – ogólnej sztucznej inteligencji). W swoim wpisie polemizował z optymistycznymi prognozami dotyczącymi tego, ile czasu zajmie rozwinięcie cyfrowych agentów. „Osobiście uważam, że okres od 2025 do 2035 to dekada agentów. Uważam, że konieczne jest włożenie ogromnego wysiłku we wszystkich obszarach, by to naprawdę zadziałało. Ale wierzę, że się to uda” – napisał.
Agent AI w roli pracownika? Nie wcześniej niż za dekadę
Dlaczego rozwój agentów wymaga jeszcze 10 lat pracy, zamiast roku, jak pragną optymiści? W rozmowie z Dwarkeshem Patelem Andrej Karpathy objaśnił, że rozwiązania, z którymi mamy styczność obecnie, to agenci na początkowym etapie rozwoju. Wyjaśnił, że jeśli rozpatrujemy agentów jako pracowników lub stażystów, których moglibyśmy angażować w firmie, by dla nas „pracowali”, to obecne rozwiązania (Karpathy podał przykład agenta Claude oraz Codex od OpenAI, dedykowanego zadaniom związanym z inżynierią oprogramowania i kodowaniem) na danym etapie progresu nie są w stanie pełnić tej roli. „One zwyczajnie nie działają. Nie są wystarczająco bystre, nie są odpowiednio multimodalne, nie potrafią obsługiwać komputera ani realizować wielu czynności. (…) Nie cechują się ciągłym procesem uczenia się. Nie można im po prostu czegoś przekazać, by to utrwaliły. Brakuje im zdolności poznawczych i to po prostu nie funkcjonuje” – podkreślił.
Reklama Reklama Reklama
Co to są agenci AI?
Za agentów AI uznaje się programy albo systemy, które potrafią działać w sposób autonomiczny, by osiągnąć konkretny cel/zrealizować zadanie. Mają umiejętność pozyskiwania informacji z otoczenia (np. poprzez tekst, grafikę, dźwięk) oraz podejmowania decyzji w oparciu o nie. Podkreśla się także, że istotną cechą agentów jest wzmiankowana przez Karpathy’ego multimodalność, czyli zdolność do pojmowania i obróbki przekazów o różnorodnej formie (dźwięk, obraz czy gest). Powinny również rozumieć kontekst tych komunikatów.
Obecnie w przekazach reklamowych agenci AI są promowani jako „osobisty asystenci”, którzy są w stanie wyręczyć nas i bez naszego udziału wykonać wiele czynności – zrobić zakupy przez internet, odpowiedzieć na e-maile, nabyć bilety itp. Hasło głoszące, że rok 2025 to „rok agentów” można usłyszeć również w Polsce. Przekonują do tego na przykład firmy oferujące kursy z zakresu zastosowania agentów AI do własnych celów lub celów firmy.
Wysokie prawdopodobieństwo popełniania pomyłek przez agentów AI
Słowa Andreja Karpathy’ego dotyczące agentów AI spotkały się z szerokim odzewem i były omawiane m.in. w mediach. O wywiadzie pisał między innymi Business Insider, który przypomniał, że Karpathy nie jest jedyną osobą, która wskazuje na bariery agentów AI. „W poście na LinkedIn w zeszłym roku Quintin Au, lider wzrostu w ScaleAI, pisał o tym, jak błędy popełniane przez agentów narastają z każdym kolejnym zadaniem” – czytamy. „Obecnie za każdym razem, kiedy AI podejmuje jakąś czynność, istnieje około 20 proc. szans na pomyłkę (tak właśnie funkcjonują LLM – nie możemy oczekiwać 100 proc. dokładności)” – napisał. „Jeżeli agent musi zrealizować 5 kroków, by sfinalizować zadanie, istnieje tylko 32 proc. szans, że każdy etap przebiegnie poprawnie.”
10 lat to i tak optymistyczny okres?
Sam Andrej Karpathy również nawiązał do swojego wywiadu. W poście na X rozwinął on i dopełnił wątki poruszone w podcaście, w tym zagadnienie dotyczące agentów AI i AGI. „Generalnie rzecz biorąc, moje prognozy dla AI są około 5-10 razy bardziej pesymistyczne w porównaniu do tego, co usłyszysz na spotkaniu fanów AI w twojej okolicy w San Francisco albo na Twitterze, ale nadal są one dosyć optymistyczne w zestawieniu z rosnącą falą sceptyków AI” – napisał. „Uważam, że w ujęciu ogólnym 10 lat to bardzo optymistyczna perspektywa czasowa dla AGI. Jedynie w opozycji do obecnego medialnego zgiełku nie wydaje się to oczywiste” – dodał.



