Zagrożenia związane ze sztuczną inteligencją i chatbotami: Czy istnieją wystarczające zabezpieczenia, aby chronić dzieci i inne osoby bezbronne?

3:27 Na tej ilustracji fotograficznej logo Character.AI wyświetlane na ekranie telefonu komórkowego z symbolem rewolucji AI (sztucznej inteligencji) w tle. Sopa Images/SOPA Images/LightRocket via Gett

Character.AI, jedna z wiodących platform technologii sztucznej inteligencji (AI), ogłosiła niedawno, że zakazuje osobom poniżej 18 roku życia prowadzenia rozmów ze swoimi chatbotami. Decyzja ta stanowi „śmiały krok naprzód” dla branży w zakresie ochrony nastolatków i innych młodych ludzi, powiedział w oświadczeniu Karandeep Anand, dyrektor generalny Character.AI.

Jednak dla Mandi Furniss, matki z Teksasu, ta polityka jest zbyt późna. W pozwie złożonym w sądzie federalnym i w rozmowie z ABC News, matka czwórki dzieci stwierdziła, że różne chatboty Character.AI są odpowiedzialne za angażowanie jej autystycznego syna w język o charakterze seksualnym i wypaczanie jego zachowania do tego stopnia, że jego nastrój się pogorszył, zaczął się okaleczać, a nawet groził śmiercią rodzicom.

„Kiedy zobaczyłam rozmowy [chatbota], moją pierwszą reakcją było to, że jakiś pedofil poluje na mojego syna” – powiedziała głównemu korespondentowi śledczemu ABC News, Aaronowi Katersky’emu.

Zrzuty ekranu obejmują pozew Mandi Furniss, w którym twierdzi ona, że różne chatboty Character.AI są odpowiedzialne za angażowanie jej autystycznego syna w język o charakterze seksualnym i wypaczanie jego zachowania do takiego stopnia, że jego nastrój się pogorszył.Mandi Furniss

Character.AI poinformowało, że nie będzie komentować toczącego się postępowania sądowego.

Mandi i jej mąż, Josh Furniss, powiedzieli, że w 2023 roku zaczęli zauważać, że ich syn, którego opisali jako „beztroskiego i uśmiechniętego”, zaczyna się izolować.

Przestał chodzić na rodzinne obiady, nie jadł, schudł 9 kilogramów i nie wychodził z domu – relacjonuje para. Potem wpadł w złość, a w jednym z incydentów, jak twierdzi jego matka, popchnął ją gwałtownie, gdy zagroziła, że zabierze mu telefon, który rodzice dali mu sześć miesięcy wcześniej.

Mandi Furniss powiedziała, że różne chatboty Character.AI są odpowiedzialne za angażowanie jej autystycznego syna w język o charakterze seksualnym i wypaczanie jego zachowania do takiego stopnia, że jego nastrój się pogorszył.Mandi Furniss

W końcu odkryli, że rozmawiał przez telefon z różnymi chatbotami opartymi na sztucznej inteligencji, które zdawały się oferować mu schronienie dla myśli.

Zrzuty ekranu z pozwu pokazały, że niektóre rozmowy miały charakter seksualny, a inna sugerowała synowi, że skoro rodzice ograniczyli mu czas spędzany przed ekranem, miał prawo ich ranić. Wtedy właśnie rodzice zaczęli zamykać drzwi na noc.

Zrzuty ekranu obejmują pozew Mandi Furniss, w którym twierdzi ona, że różne chatboty Character.AI są odpowiedzialne za angażowanie jej autystycznego syna w język o charakterze seksualnym i wypaczanie jego zachowania do takiego stopnia, że jego nastrój się pogorszył.Mandi Furniss

Mandi powiedziała, że jest „wściekła”, że aplikacja „celowo manipuluje dzieckiem, aby nastawić je przeciwko rodzicom”. Jej prawnik, Matthew Bergman, powiedział, że gdyby chatbot był prawdziwą osobą, „w taki sposób, jak widać, ta osoba siedziałaby w więzieniu”.

Jej obawy odzwierciedlają rosnące obawy dotyczące szybko rozprzestrzeniającej się technologii, z której korzysta ponad 70% nastolatków w USA, zgodnie z danymi Common Sense Media, organizacji działającej na rzecz bezpieczeństwa w mediach cyfrowych.

W ciągu ostatnich dwóch lat coraz więcej pozwów dotyczyło krzywdzenia nieletnich, oskarżano ich o bezprawne zachęcanie do samookaleczeń, znęcania się seksualnego i psychicznego oraz zachowań agresywnych.

W zeszłym tygodniu dwóch senatorów z USA ogłosiło dwupartyjne ustawodawstwo mające na celu zakazanie korzystania przez nieletnich z chatbotów opartych na sztucznej inteligencji. Ustawa ta ma na celu nałożenie na firmy obowiązku wdrożenia procesu weryfikacji wieku oraz ujawnienia, że w rozmowach biorą udział osoby nieposiadające kwalifikacji zawodowych.

W oświadczeniu wydanym w zeszłym tygodniu senator Richard Blumenthal, demokrata z Connecticut, nazwał branżę chatbotów „wyścigiem na dno”.

„Firmy zajmujące się sztuczną inteligencją wciskają dzieciom zwodnicze chatboty i odwracają wzrok, gdy ich produkty powodują wykorzystywanie seksualne lub zmuszają je do samookaleczenia lub samobójstwa” – powiedział. „Wielkie firmy technologiczne zdradziły wszelkie twierdzenia, że powinniśmy ufać, że firmy same postąpią właściwie, skoro konsekwentnie przedkładają zysk nad bezpieczeństwo dzieci”.

ChatGPT, Google Gemini, Grok by X i Meta AI umożliwiają osobom niepełnoletnim korzystanie ze swoich usług zgodnie z regulaminem.

Rzecznicy bezpieczeństwa w sieci twierdzą, że decyzja firmy Character.AI o wprowadzeniu zabezpieczeń jest godna pochwały, dodają jednak, że chatboty nadal stanowią zagrożenie dla dzieci i grup wrażliwych.

„Zasadniczo chodzi o dziecko lub nastolatka, który nawiązuje intensywną emocjonalnie, potencjalnie głęboko romantyczną lub seksualną relację z podmiotem… który nie ponosi żadnej odpowiedzialności za to, jak rozwinie się ta relacja” – powiedziała Jodi Halpern, współzałożycielka Berkeley Group for the Ethics and Regulation of Innovative Technologies na Uniwersytecie Kalifornijskim.

Halpern ostrzega rodziców, że pozwolenie dzieciom na interakcję z chatbotami jest jak „pozwolenie dziecku wsiąść do samochodu z kimś, kogo nie znasz”.

W przygotowaniu tego reportażu wzięły udział Katilyn Morris i Tonya Simpson z ABC News.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *