Reinkarnacja cyfrowa? Ryzyka upowszechnienia komercyjnego deadbotów i griefbotów

Coraz więcej osób sięga po inteligencję sztuczną, aby odzyskać namiastkę więzi z osobami zmarłymi lub zapewnić sobie „wirtualną egzystencję po życiu” – oznajmił PAP filozof dr Tomasz Hollanek. Wprowadzanie na rynek tego typu technologii to ryzykowna próba, oddziałująca na szczególnie czułą płaszczyznę uczuć – dodał.

Cyfrowe Wskrzeszenie Zagroenia Komercjalizacji Deadbotw Czy Griefbotw 94efcb4, NEWSFIN

fot. Soft Light / / Shutterstock

Koncepcja „wirtualnej egzystencji po śmierci” nie jest czymś nowym. Od lat istnieją aplikacje i platformy internetowe pozwalające utrwalać wspomnienia o zmarłych w formie cyfrowej – objaśnił w rozmowie z PAP dr Tomasz Hollanek z Uniwersytetu w Cambridge, etyk zajmujący się kwestiami sztucznej inteligencji. Zaawansowane modele AI nadały jednakże tym zamysłom zupełnie odmienny charakter – umożliwiły kreowanie chatbotów, które potrafią przemawiać i funkcjonować jak konkretna osoba, również taka, która już odeszła. Takie programy określa się mianem „deadbotów” lub „griefbotów”.

Największe spory wywołują narzędzia umożliwiające wirtualne „ożywienie” osoby zmarłej. Obecnie chatbota można stosunkowo łatwo skonfigurować tak, by odpowiadał w sposób imitujący styl wypowiadania się danego celebryty czy polityka. Systemy te analizują specyficzne słownictwo i metodę konstruowania zdań w publicznych wystąpieniach danej osoby, a następnie usiłują odtworzyć te atrybuty. Analogicznie, na podstawie rejestracji konwersacji bądź wymienionych wiadomości, możliwe jest odtworzenie sposobu komunikowania się zmarłego krewnego.

Zobacz takżeTylko dla naszych Czytelników: możesz dostać Apple Watcha w prezencie do karty kredytowej. Sprawdź, jak zgarnąć nagrodę

Ekspert zaznaczył, że taka forma „rozmowy” z osobą nieżyjącą rodzi wiele dylematów etycznych. Od zmarłych nie można uzyskać akceptacji na wykorzystanie ich danych i wizerunku. Nie mogą oni również wyrazić sprzeciwu, jeśli bot w ich imieniu wypowie coś, z czym sami by się nie zgodzili.

Na te problemy odpowiada druga grupa produktów w dziedzinie digital afterlife – dedykowana osobom, które za życia z rozmysłem gromadzą własne dane, aby stworzyć swoją pośmiertną reprezentację. – To narzędzia, które poniekąd pozwalają kontrolować, w jaki sposób inni będą nas wspominać – wyjaśnił Hollanek.

Świadomie tworzone griefboty nie są jednak całkowicie pozbawione niebezpieczeństw – powiązanych np. z tym, jak „wirtualny byt” jest odbierany przez krewnych.

Badacz zauważył również, że – oprócz zastosowań prywatnych – istnieją rozwiązania mające na celu rekonstrukcję postaci publicznych lub historycznych, by zachować ich dorobek. – Możemy mówić np. o projektach, które umożliwiają w nowej formie zapamiętać wspomnienia osób, które przetrwały Holokaust lub inne konflikty – dodał.

Jak wytłumaczył Hollanek, trudno określić, ile osób korzysta w taki sposób z nowych technologii, ponieważ griefbota można stworzyć zarówno za pomocą dedykowanych rozwiązań, jak i ogólnodostępnych narzędzi. Nawet ChatGPT da się zaprogramować tak, żeby imitował konkretną osobę.

Badacz wyjaśnił, że czołowe firmy w tej branży wywodzą się z USA i Korei Południowej. Coraz częściej pojawiają się również przedsiębiorstwa europejskie, m.in. z Niemiec i Włoch. Oferta zawiera zarówno rozwiązania niedrogie, jak i produkty warte kilkanaście tysięcy euro lub więcej.

Dr Hollanek bierze aktualnie udział w projekcie badawczym, prowadzonym przez dr Katarzynę Nowaczyk-Basińską, analizującym międzykulturowe różnice w postrzeganiu cyfrowej nieśmiertelności. Badacze porównują postawy wobec tego zjawiska na podstawie badań fokusowych w Polsce, Indiach i Chinach oraz rozmów z ekspertami zajmującymi się tematyką śmierci.

Badacz zwrócił uwagę, że we wszystkich badanych grupach pojawiały się obawy związane z dominacją w sektorze prywatnych, nastawionych na zysk podmiotów. – Rodzi się pytanie, czy taki model biznesowy powinien w ogóle obejmować produkty związane z tak wrażliwą sferą, jak śmierć, żałoba czy godzenie się z własną przemijalnością – oznajmił.

Jednocześnie większość specjalistów nie odrzucała kategorycznie eksperymentów z technologią, wskazywali jednak na naglącą konieczność regulacji. W kontekście praktyki prawnej dr Hollanek zaakcentował rolę rozporządzenia UE w sprawie AI, które nakłada na producentów chatbotów obowiązek jednoznacznego informowania użytkowników, że wchodzą w interakcję ze sztuczną inteligencją, a nie człowiekiem. W Stanach Zjednoczonych toczą się debaty nad ochroną wizerunku po zgonie.

Branża pozostaje w dużej mierze nieuregulowana. To, co firmy obecnie robią, to ogromna próba w obszarze wyjątkowo delikatnym – podsumował Hollanek.

Wojciech Steć (PAP)

wst/ bst/ bar/ mhr/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *