Firma Anthropic, specjalizująca się w obszarze AI, złożyła w poniedziałek pozew w celu unieważnienia restrykcji nałożonych przez Departament Obrony. Przedsiębiorstwo realizuje kontrakt dla Pentagonu o wartości około 200 mln dolarów, lecz ostatnio wdało się z nim w konflikt, domagając się, aby jej rozwiązania technologiczne nie były stosowane do broni autonomicznej oraz inwigilacji na dużą skalę.

W czwartek Pentagon oficjalnie uznał Anthropic za „potencjalne zagrożenie dla bezpieczeństwa łańcucha dostaw”, zakazując podmiotom współpracującym z ministerstwem obrony prowadzenia interesów z tym podmiotem. Jest to premierowe zastosowanie tej klasyfikacji – do tej pory zarezerwowanej dla przedsiębiorstw z Chin i innych adwersarzy USA – w odniesieniu do amerykańskiej firmy.
W pozwie, wniesionym w poniedziałek do sądu federalnego w Kalifornii, Anthropic określił tę decyzję jako niezgodną z prawem i zaapelował o jej anulowanie, a także uniemożliwienie władzom federalnym jej realizacji.
Reklama
Zobacz także
Niskie prowizje i brak ukrytych opłat – otwórz rachunek w Saxo Banku (Link afiliacyjny – zarabiamy na prowizji)
Szef Pentagonu, Pete Hegseth, wprowadził wspomniane ograniczenia po tym, jak Anthropic odmówił wyłączenia zabezpieczeń, które uniemożliwiają wykorzystywanie jego systemów sztucznej inteligencji do tworzenia broni autonomicznej i masowej inwigilacji obywateli amerykańskich.
Prezydent Donald Trump dołączył się do krytyki Anthropic, określając firmę jako „skrajnie lewicowe przedsiębiorstwo”, które chce narzucać rządowi i armii „jak prowadzić i wygrywać wojny”. Stwierdził, że „lewicowi szaleńcy” popełnili „fatalny błąd, próbując szantażować” Pentagon i zakazał wykorzystywania technologii Anthropic w strukturach rządowych.
Amerykański resort obrony oraz Biały Dom podkreślają, że o sposobie zastosowania systemów sztucznej inteligencji w celach wojskowych muszą decydować amerykańskie prawo oraz instytucje rządowe, a nie wewnętrzne przepisy prywatnej firmy.
Anthropic podkreśla, że nawet najdoskonalsze modele AI nie są na tyle pewne, aby mogły stanowić część autonomicznego uzbrojenia, a ich wykorzystywanie w tym charakterze byłoby ryzykowne.
Zadeklarowane przez Pentagon ograniczenia są poważnym ciosem dla firmy, który – zdaniem ekspertów – potencjalnie zagraża jej dalszemu funkcjonowaniu.
Anthropic stworzył model AI o nazwie Claude. Według doniesień medialnych, był on używany w styczniu podczas operacji mającej na celu schwytanie prezydenta Wenezueli, Nicolasa Maduro, przez amerykańskie wojska, a także w trakcie trwającego konfliktu między USA i Izraelem a Iranem. (PAP)
adj/ rtt/
