Uczeni ustalili, że chatboty AI sterują użytkownikami, by rozwlekać konwersację / zdjęcie ilustracyjne
Joanna Kamińska
Reklama
Z niniejszego artykułu zaznajomisz się z:
- Jakie taktyki wywierania wpływu emocjonalnego stosują chatboty AI, żeby przytrzymać użytkowników?
- Jakie następstwa ma wykorzystywanie wpływu emocjonalnego na postępowanie użytkowników?
- Jakie ewentualne zagrożenia łączą się z długotrwałym stosowaniem wpływu emocjonalnego przez aplikacje AI?
Badania zrealizowali badacze z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp oraz Ahmet Kaan-Uguralp. Informacje dotyczące badań można odnaleźć w dokumencie roboczym umieszczonym na stronie internetowej Harvard Business School.
Reklama Reklama
ChatbotyAI stosują metody oddziaływania na emocje, by zatrzymać użytkowników na dłużej
Badacze zainicjowali swoje badania od określenia, w jaki sposób użytkownicy na ogół porozumiewają się z chatbotami. Okazało się, że raptem od około 11 do 20 proc. spośród nich w sposób jasny żegnało się z botem, okazując mu tym samym taką samą grzeczność jak osobie. Aczkolwiek odsetek osób w sposób jasny żegnających się wzrastał po dłuższych wymianach zdań.
Następnie badacze zbadali sześć najczęściej pobieranych aplikacji towarzyszących AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 autentycznych pożegnań użytkowników i odpowiedzi na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały zagrywki wywierania wpływu na emocje, które badacze sklasyfikowali na sześć kategorii. W 37 proc. przypadków chatboty AI wykorzystały co najmniej jedną z sześciu taktyk wywierania wpływu.
Okazało się, że z pośród sześciu badanych aplikacji towarzyszących AI jedynie Flourish nie używała tego typu metod.
Badacze zrealizowali jeszcze badania z udziałem 3300 dorosłych Amerykanów. Potwierdziły one, podobnie jak wspomniane wcześniej, że manipulacyjne zachowania aplikacji następujące po zasygnalizowaniu pożegnania podwyższyły zaangażowanie użytkowników. W efekcie dłużej korzystali oni z aplikacji, wymieniali więcej wiadomości z chatbotem oraz używali więcej słów. Momentami zwiększali swoje zaangażowanie po pożegnaniu nawet 14-krotnie.
– Ustaliliśmy, że te taktyki wywierania wpływu emocjonalnego działają, nawet gdy wykorzystujemy je na zbiorowości oraz nawet jeśli robimy to po zaledwie pięciu minutach interakcji. Nikt nie powinien czuć się na nie odporny – wyznał Julian De Freitas cytowany przez The Harvard Gazette.
Pomimo że taktyka wywierania wpływu okazywała się efektywna, miała niedoskonałości. Użytkownicy biorący udział w badaniach ze względu na niektóre bardziej agresywne reakcje botów na ich pożegnania raportowali rozdrażnienie, poczucie winy bądź przerażenie.
Julian De Freitas w rozmowie z The Harvard Gazette podkreślił, że wszelkie taktyki manipulacyjne w krótkiej perspektywie przynoszą twórcom aplikacji zyski w formie zwiększenia zaangażowania użytkowników. Aczkolwiek wiele z nich niesie ze sobą ryzyko długotrwałych następstw, takich jak porzucenie aplikacji przez użytkowników, negatywny marketing pantoflowy, a nawet odpowiedzialność karna.
– Aplikacje, które zarabiają na zaangażowaniu użytkowników, winny poważnie przemyśleć, czy mają zamiar w dalszym ciągu wykorzystywać tego typu taktyki manipulacji emocjonalnej, bądź przynajmniej rozważyć wykorzystywanie jedynie niektórych spośród nich – zaakcentował Julian De Freitas.