Specjalizująca się w AI spółka Anthropic wniosła w poniedziałek powództwo, aby uniemożliwić restrykcje narzucone jej przez Pentagon. Firma realizuje dla Pentagonu kontrakt opiewający na około 200 mln dolarów, lecz ostatnio weszła z nim w konflikt, domagając się, aby jej technologie nie były stosowane do broni autonomicznej oraz inwigilacji na masową skalę.

Pentagon oficjalnie uznał w czwartek, że Anthropic stanowi „niebezpieczeństwo dla łańcucha zaopatrzenia”, zakazując podwykonawcom ministerstwa obrony prowadzenia interesów z tą korporacją. To premierowe zastosowanie tej klasyfikacji – jak dotąd zarezerwowanej dla przedsiębiorstw z Chin i innych adwersarzy USA – wobec amerykańskiego podmiotu.
W pozwie, wniesionym w poniedziałek do sądu federalnego w Kalifornii, Anthropic ocenił tę decyzję jako niezgodną z prawem i zaapelował o jej unieważnienie oraz zablokowanie władzom federalnym jej wprowadzania w życie.
Reklama
Zobacz także
Niskie prowizje i brak ukrytych opłat – otwórz rachunek w Saxo Banku (Link afiliacyjny – zarabiamy na prowizji)
Szef Pentagonu Pete Hegseth wprowadził ograniczenia po tym, jak Anthropic nie zgodził się na usunięcie zabezpieczeń, które uniemożliwiają wykorzystanie jego systemów sztucznej inteligencji do produkcji broni autonomicznej oraz inwigilacji obywateli amerykańskich na dużą skalę.
Prezydent Donald Trump dołączył do krytyki Anthropic, określając ją jako „skrajnie lewicową firmę”, która chce dyktować rządowi i armii, „jak prowadzić walkę i zwyciężać w wojnach”. Stwierdził, że „szaleńcy z lewicy” popełnili „fatalny błąd, próbują szantażować” Pentagon oraz zabronił wykorzystywania technologii Anthropic w organach administracji państwowej.
Amerykański departament obrony oraz Biały Dom podkreślają, że o metodzie użycia systemów sztucznej inteligencji w celach militarnych muszą decydować amerykańskie prawo oraz instytucje rządowe, a nie wewnętrzny regulamin prywatnej firmy.
Anthropic zaznacza, że nawet najlepsze modele AI nie są wystarczająco godne zaufania, by stanowić część autonomicznego uzbrojenia i korzystanie z nich w tym celu byłoby ryzykowne.
Ogłoszone przez Pentagon obostrzenia są mocnym uderzeniem dla spółki, który – zdaniem ekspertów – potencjalnie zagraża jej dalszemu funkcjonowaniu.
Anthropic stworzył model AI Claude. Według doniesień medialnych był on używany w styczniu w trakcie operacji pojmania prezydenta Wenezueli Nicolasa Maduro przez amerykańskie wojska, a także w czasie trwającej wojny USA i Izraela z Iranem. (PAP)
adj/ rtt/
