
Firma Anthropic złagodziła kluczowe zasady bezpieczeństwa, powołując się na potrzebę utrzymania konkurencyjności, podczas gdy Pentagon naciska na firmę, aby zezwoliła na wykorzystanie sztucznej inteligencji do szpiegowania obywateli USA i tworzenia autonomicznej broni.
Firma wcześniej pozycjonowała się jako jedno z najbardziej skoncentrowanych na bezpieczeństwie laboratoriów sztucznej inteligencji na rynku, jednak teraz zarząd wycofał się z kluczowego zobowiązania w tej dziedzinie.
W 2023 roku firma wprowadziła Politykę Odpowiedzialnego Skalowania (RSP), zbiór dobrowolnych zasad mających na celu ograniczenie katastroficznego ryzyka związanego z pracą z sieciami neuronowymi. Początkowo dokument stanowił, że deweloper zawiesi rozwój sztucznej inteligencji, jeśli uzna ją za potencjalnie niebezpieczną.
„Zdecydowaliśmy, że nikomu nie pomożemy, jeśli po prostu przestaniemy trenować modele sztucznej inteligencji. Biorąc pod uwagę szybki postęp w branży, podejmowanie jednostronnych zobowiązań, podczas gdy konkurencja wciąż się rozwijała, wydawało się nierozsądne” – powiedział Jared Kaplan, dyrektor naukowy w Anthropic.
Trzecia wersja RSP stwierdza, że Anthropic będzie nadal udoskonalać sztuczną inteligencję, jeśli uzna, że nie ma ona znaczącej przewagi nad konkurencją.
„Polityka zmieniła się i obecnie priorytetowo traktuje konkurencyjność i wzrost gospodarczy, a dyskusje na temat bezpieczeństwa sztucznej inteligencji nie cieszą się znaczącym poparciem na szczeblu federalnym” – czytamy na blogu startupu.
Nowa polityka zakłada większą przejrzystość, w tym szczegółową publikację wyników testów modeli. Firma obiecuje dotrzymać kroku konkurencji w zakresie kontroli systemu. Anthropic jest skłonny spowolnić rozwój tylko wtedy, gdy stanie się niekwestionowanym liderem w wyścigu, a jednocześnie dostrzeże znaczne ryzyko katastrofy.
Kiedy Anthropic wprowadził RSP w 2023 roku, firma liczyła, że konkurencja pójdzie w jego ślady. Nikt jednak nie złożył równie jednoznacznej obietnicy wstrzymania rozwoju sztucznej inteligencji.
Antropiczny pod presją Pentagonu
Anthropic i Departament Obrony USA spierają się o plany wojska dotyczące wykorzystania sztucznej inteligencji do monitorowania obywateli i rozwoju autonomicznej broni. Startup sprzeciwia się temu podejściu, ale przedstawiciele Pentagonu zadeklarowali, że zamierzają używać LLM „we wszystkich uzasadnionych scenariuszach” bez ograniczeń i zasugerowali możliwość zerwania kontraktu.
Prezes startupu, Dario Amodei, spotkał się z sekretarzem obrony Pete'em Hegsethem, aby omówić sytuację. Departament postawił ultimatum: startup musi zaakceptować warunki rządu do 27 lutego.
W przypadku odmowy rząd mógłby uznać firmę za zagrożenie dla łańcuchów dostaw, co zagroziłoby współpracy Anthropic z innymi kontrahentami rządu USA. Alternatywnie, rząd mógłby powołać się na ustawę o produkcji obronnej (Defense Production Act), która pozwoliłaby Pentagonowi na przymusowe wykorzystanie technologii startupu.
„To bezprecedensowy scenariusz, który niemal na pewno doprowadzi do fali pozwów sądowych, jeśli administracja podejmie niekorzystne działania wobec Anthropic” – powiedział Franklin Turner, prawnik z kancelarii McCarter & English specjalizujący się w kontraktach rządowych.
W oświadczeniu przedstawiciele firmy AI podkreślili, że strony „kontynuują dialog w dobrej wierze”.
Antropiczny wytrwały
Agencja Reuters dowiedziała się, że Anthropic nie ma zamiaru łagodzić ograniczeń dotyczących wykorzystania tej technologii w celach militarnych.
Stanowisko startupu poparł współzałożyciel Ethereum, Vitalik Buterin.
Moja opinia o @Anthropic znacznie wzrośnie, jeśli nie odpuszczą i nie poniosą konsekwencji w sposób honorowy.
(Dla tych, którzy nie wiedzą, do tej pory utrzymywali dwie czerwone linie: „brak w pełni autonomicznej broni” i „brak masowej inwigilacji Amerykanów”…
— vitalik.eth (@VitalikButerin) 24 lutego 2026
„Jeśli nie wycofają się i nie zaakceptują konsekwencji z honorem, moja opinia o Anthropic znacznie się poprawi” – powiedział.
W lutym ujawniono, że model Claude AI został wykorzystany w operacji pojmania prezydenta Wenezueli Nicolasa Maduro. Według agencji, podczas spotkania z Hegseth, prezes Anthropic nie wyraził obaw dotyczących wykorzystania produktów firmy w tej inicjatywie.
Tak poważne zagrożenie dla Pentagonu wskazuje na niechęć do porzucenia Claude'a w sektorze obronnym, pisze The Economist. Dziennikarze zauważają, że technologie startupu mogą okazać się niezbędne do realizacji zadań wojskowych.
Przypomnijmy, że SpaceX i jego spółka zależna, zajmująca się sztuczną inteligencją, xAI, biorą udział w tajnym przetargu Pentagonu na opracowanie autonomicznych, sterowanych głosem rojów dronów.
