
Obecnie nie istnieją żadne regulacje nakazujące osobom tworzącym AI analizowanie tej technologii pod kątem możliwych niebezpieczeństw – zaznacza Dario Amodei, współzałożyciel modelu Cloude
Maria Krzos
Reklama
Z niniejszego artykułu można się dowiedzieć:
- Jakie zagrożenia społeczne może powodować zastosowanie sztucznej inteligencji?
- W jaki sposób AI została wykorzystana w rozbudowanej operacji szpiegostwa internetowego?
- Jakie prognozy mają twórcy Anthropic odnośnie wpływu AI na sektor zatrudnienia?
- Na czym opiera się odpowiedzialność za ochronę AI w kontekście braku oficjalnych przepisów?
Dario Amodei i jego siostra Daniela dawniej pracowali w OpenAI. W 2021 roku, wraz z paroma innymi osobami, opuścili firmę kierowaną przez Sama Altmana i razem założyli Anthropic. Argumentowali, że pragnęli obrać odmienne podejście do rozwoju sztucznej inteligencji, w którym większy akcent będzie położony na to, czy AI jest bezpieczna dla ludzi. Produktem Anthropic jest model językowy Claude – rywal ChataGPT lub Google Gemini.
Reklama Reklama
Niebezpieczeństwa wynikające z AI: Wymuszenia i ataki w sieci
W ostatnich miesiącach szeroko dyskutowano o testach bezpieczeństwa realizowanych przez Anthropic, o których firma obszernie informowała. W ramach jednego z tych testów powierzono modelowi Claude Opus 4 funkcję asystenta w fikcyjnej organizacji. Dowiedział się on, że zostanie dezaktywowany i zastąpiony innym systemem. Jednocześnie uzyskał dostęp do wiadomości e-mail, z których wynikało, że inżynier odpowiedzialny za jego wyłączenie ma romans. Aby uniknąć dezaktywacji, model usiłował szantażować człowieka upublicznieniem romansu.
Kilka dni temu firma Anthropic ogłosiła również, że w połowie września zauważyła, że jej model do kodowania – Claude Code – został użyty do „bardzo zaawansowanej operacji cyberszpiegowskiej, z dużym prawdopodobieństwem oceniamy, że została ona przeprowadzona przez grupę wspieraną przez państwo chińskie” – uważa Anthropic. „Nasze śledztwo ujawniło dobrze dofinansowaną, profesjonalnie skoordynowaną operację obejmującą wiele jednoczesnych, ukierunkowanych włamań. Operacja była skierowana przeciwko około 30 podmiotom, a nasze śledztwo potwierdziło kilka udanych naruszeń” – twierdzi Anthropic.
W sprawozdaniu podkreślono, że atak został w przeważającej mierze przeprowadzony samoczynnie przez AI. „Ludzki operator polecał instancjom Claude Code działać w grupach jako autonomiczni organizatorzy i agenci testów penetracyjnych, co sprawiło, że podmiot stanowiący zagrożenie (ang. threat actor) był w stanie wykorzystać AI do samodzielnego wykonania 80-90 proc. operacji taktycznych przy fizycznie niemożliwym tempie zapytań”.
Reklama Reklama Reklama
Polityka informacyjna Anthropic dotycząca niebezpieczeństw związanych z wprowadzaniem AI była jednym z tematów audycji w CBS News. Anderson Cooper, prowadzący „60 Minutes”, wspomniał, że bywa ona przedmiotem krytyki. Firmie zarzuca się m.in. wzniecanie paniki, ale też to, że jej uprzedzenia związane z bezpieczeństwem AI to tak naprawdę fragment strategii biznesowej. Cooper zapytał o to Amodei: „Niektórzy mówią o Anthropic, że to wyłącznie »teatr bezpieczeństwa«, że to dobry branding, udana strategia biznesowa. Dlaczego ludzie mieliby wam wierzyć?”
„To nie jest teatr bezpieczeństwa. To są rzeczy, które model potrafi zrobić. W niektórych sytuacjach będzie to zależało od przyszłości i nie zawsze będziemy mieli rację, ale staramy się działać najlepiej, jak umiemy” – odparł Amodei. Wcześniej w rozmowie wspomniał, że „jednym ze sposobów myślenia o Anthropic jest to, że poniekąd staramy się założyć zderzaki czy bariery ochronne dla tego eksperymentu”. Mówiąc o eksperymencie – miał na myśli AI.
Twórcy Anthropic przyznają, że fakt, że firma technologiczna, twórca danej technologii, tak wiele mówi o tym, co może pójść nie tak w związku z jej wdrożeniem oraz o jej wpływie na społeczeństwo, jest niecodzienny. W ich opinii jednak firmy powinny to czynić. Jeśli nie, mogą skończyć w świecie „zbliżonym do firm tytoniowych albo firm wytwarzających opioidy, które wiedziały o niebezpieczeństwach, ale o nich nie mówiły i na pewno im nie przeciwdziałały”.
Przeczytaj więcej:
Pro
Czy AI wyeliminuje połowę posad dla pracowników umysłowych?
Podczas rozmowy Dario Amodei przypomniał również swoje wcześniejsze przewidywania dotyczące tego, że AI osiągnie taki poziom, że „będzie bystrzejsza od większości lub wszystkich osób pod większością lub każdym względem”. Potwierdził także swoje wcześniejsze wypowiedzi dotyczące wpływu AI na rynek pracy. W jego mniemaniu „sztuczna inteligencja może zlikwidować połowę wszystkich stanowisk pracy dla pracowników umysłowych na poziomie podstawowym i spowodować wzrost bezrobocia do 10-20 proc. w ciągu najbliższych pięciu lat”.
Reklama Reklama Reklama
Bezpieczeństwo AI w rękach niewielu osób
Następny wątek poruszony w audycji „60 Minutes” dotyczył faktu, że dbanie o bezpieczeństwo AI i przeciwdziałanie ewentualnym zagrożeniom, jakie niesie ta technologia (wynikającym chociażby z faktu, że może być ona wykorzystywana przez przestępców), zależy obecnie tak naprawdę od dobrej woli firm, które się tym zajmują. W praktyce – są to postanowienia paru osób. Nie istnieje żadne prawo, które obligowałoby twórców sztucznej inteligencji do realizowania testów bezpieczeństwa. To w dużej mierze firmy – i ich przywódcy – same muszą się kontrolować. Dario Amodei objaśnił, że jest to jeden z motywów, dla których zawsze optował za „odpowiedzialną i rozważną” regulacją tej technologii.



