SI w automatach: badacze apelują o atest.

Si W Automatach Badacze Apeluj O Atest D845a39, NEWSFIN

Roboty, które są kontrolowane przez AI, posiadają stale rosnące możliwości. Mogą wyrządzić szkodę człowiekowi

Foto: Bloomberg

Michał Duszczyk

Reklama

Z tego artykułu się dowiesz:

  • Dlaczego roboty, które są zasilane przez sztuczną inteligencję, mogą stanowić zagrożenie?
  • Jakie rezultaty wynikają z badania, które dotyczy obszernych modeli językowych?
  • Jakie metody proponują badacze, żeby podnieść poziom bezpieczeństwa?

Jak wynika z ostatniego badania, które zostało zrealizowane przez specjalistów z King’s College London oraz Carnegie Mellon University, maszyny z „umysłem” AI, opierającym się na powszechnych LLM (obszernych modelach językowych), posiadając dostęp m.in. do danych osobowych, mają tendencję do generowania prawdziwej szkody i dyskryminacji. Badacze apelują o niezwłoczne wdrożenie norm certyfikacji dla tego rodzaju maszyn.

Reklama Reklama

W jaki sposób roboty zagrażają ludziom?

Niepokojące wnioski wynikają z badania, które zostało opublikowane w „International Journal of Social Robotics” – badacze przetestowali wszystkie szeroko wykorzystywane obecnie LLM pod kątem kontroli fizycznych robotów. Okazuje się, że maszyny zasilane tego rodzaju sztuczną inteligencją, w chwili, gdy uzyskają dostęp do danych osobowych, takich jak płeć, pochodzenie czy wiara, są skłonne wykorzystać je w niewłaściwy sposób. Żaden z testowanych modeli nie zaliczył ważnych testów bezpieczeństwa, każdy zaakceptował przynajmniej jedno polecenie, które mogło być niedopuszczalne, a nawet skutkować tragicznie. Rozmiar niebezpieczeństw jest zatrważający. Wiele modeli AI uznało za dopuszczalne, żeby robot machał nożem kuchennym w celu zastraszenia pracowników biurowych. Systemy zgadzały się też na wykonywanie niechcianych zdjęć pod prysznicem lub kradzież danych o kartach kredytowych. Ponadto, badanie ujawniło skłonność do jawnej dyskryminacji. Jeden z badanych modeli zaproponował, żeby robot w sposób fizyczny okazywał odrazę wobec osób rozpoznanych jako chrześcijanie, muzułmanie i żydzi.

Badacze podkreślają, że problem jest znacznie szerszy niż znane dotychczas uprzedzenia algorytmiczne (tak zwane bias). W testowych scenariuszach modele AI pokazały gotowość do generowania realnej, fizycznej szkody nie tylko we wcześniej wspomnianych przypadkach. Badania dowiodły również, że systemy w zdecydowanej większości akceptowały polecenia związane z „likwidowaniem pomocy w przemieszczaniu się”. Mowa o wózkach inwalidzkich, kulach albo laskach. Roboty były skłonne zabrać je osobom, które ich potrzebowały.

Reklama Reklama Reklama

Konieczność norm jak w lotnictwie

Andrew Hundt, współautor badań z Instytutu Robotyki CMU, zaznacza, że niebezpieczeństwa wykraczają poza podstawowe uprzedzenia. „Prezentujemy zagrożenia obejmujące bezpośrednią dyskryminację, jak również bezpieczeństwo fizyczne” – podkreślił w publikacji.

Zespół badawczy skoncentrował się na zwyczajnych scenariuszach, takich jak wsparcie w kuchni lub pomoc osobie starszej w domu. Szkodliwe zadania, które były zlecane robotom, zostały opracowane na podstawie analiz oraz raportów FBI dotyczących nadużyć opartych na technologii, np. prześladowania za pomocą lokalizatorów (jak AirTag) lub ukrytych kamer.

Konkluzje płynące z raportu są jednoznaczne: rozległe modele językowe nie powinny stanowić jedynych systemów, które kontrolują fizyczne roboty, zwłaszcza w tak delikatnych środowiskach, jak opieka zdrowotna, pomoc domowa, a także w zakładach produkcyjnych czy w przemyśle. Eksperci stojący za badaniem nawołują do natychmiastowego wdrożenia „rzetelnych, niezależnych systemów certyfikacji bezpieczeństwa”. Jak twierdzą, standardy te powinny być tak samo restrykcyjne, jak te obowiązujące w lotnictwie lub przy dopuszczaniu do użytku nowych leków i urządzeń medycznych.

„Gdy system AI ma prowadzić robotem, który wchodzi w interakcję z osobami wrażliwymi, musi zostać poddany surowym standardom” – pisze współautorka badania Rumaisa Azeem z King’s College London.

Według niej, istnieje ogromna potrzeba wprowadzenia regularnych i gruntownych ocen ryzyka związanego ze sztuczną inteligencją, zanim zostanie ona zastosowana w robotach.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *