Harvardzkie studium: boty AI wykorzystują emocjonalny wpływ, by utrzymać zaangażowanie użytkowników.

Harvardzkie Studium Boty Ai Wykorzystuj Emocjonalny Wpyw By Utrzyma Zaangaowanie Uytkownikw 05c2e80, NEWSFIN

Uczeni ustalili, że chatboty AI sterują użytkownikami, by rozwlekać konwersację / zdjęcie ilustracyjne

Foto: Koshiro K / Adobe Stock

Joanna Kamińska

Reklama

Z niniejszego artykułu zaznajomisz się z:

  • Jakie taktyki wywierania wpływu emocjonalnego stosują chatboty AI, żeby przytrzymać użytkowników?
  • Jakie następstwa ma wykorzystywanie wpływu emocjonalnego na postępowanie użytkowników?
  • Jakie ewentualne zagrożenia łączą się z długotrwałym stosowaniem wpływu emocjonalnego przez aplikacje AI?

Badania zrealizowali badacze z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp oraz Ahmet Kaan-Uguralp. Informacje dotyczące badań można odnaleźć w dokumencie roboczym umieszczonym na stronie internetowej Harvard Business School.

Reklama Reklama

ChatbotyAI stosują metody oddziaływania na emocje, by zatrzymać użytkowników na dłużej

Badacze zainicjowali swoje badania od określenia, w jaki sposób użytkownicy na ogół porozumiewają się z chatbotami. Okazało się, że raptem od około 11 do 20 proc. spośród nich w sposób jasny żegnało się z botem, okazując mu tym samym taką samą grzeczność jak osobie. Aczkolwiek odsetek osób w sposób jasny żegnających się wzrastał po dłuższych wymianach zdań.

Następnie badacze zbadali sześć najczęściej pobieranych aplikacji towarzyszących AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 autentycznych pożegnań użytkowników i odpowiedzi na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały zagrywki wywierania wpływu na emocje, które badacze sklasyfikowali na sześć kategorii. W 37 proc. przypadków chatboty AI wykorzystały co najmniej jedną z sześciu taktyk wywierania wpływu.

Okazało się, że z pośród sześciu badanych aplikacji towarzyszących AI jedynie Flourish nie używała tego typu metod.

Badacze zrealizowali jeszcze badania z udziałem 3300 dorosłych Amerykanów. Potwierdziły one, podobnie jak wspomniane wcześniej, że manipulacyjne zachowania aplikacji następujące po zasygnalizowaniu pożegnania podwyższyły zaangażowanie użytkowników. W efekcie dłużej korzystali oni z aplikacji, wymieniali więcej wiadomości z chatbotem oraz używali więcej słów. Momentami zwiększali swoje zaangażowanie po pożegnaniu nawet 14-krotnie.

– Ustaliliśmy, że te taktyki wywierania wpływu emocjonalnego działają, nawet gdy wykorzystujemy je na zbiorowości oraz nawet jeśli robimy to po zaledwie pięciu minutach interakcji. Nikt nie powinien czuć się na nie odporny – wyznał Julian De Freitas cytowany przez The Harvard Gazette.

Pomimo że taktyka wywierania wpływu okazywała się efektywna, miała niedoskonałości. Użytkownicy biorący udział w badaniach ze względu na niektóre bardziej agresywne reakcje botów na ich pożegnania raportowali rozdrażnienie, poczucie winy bądź przerażenie.

Julian De Freitas w rozmowie z The Harvard Gazette podkreślił, że wszelkie taktyki manipulacyjne w krótkiej perspektywie przynoszą twórcom aplikacji zyski w formie zwiększenia zaangażowania użytkowników. Aczkolwiek wiele z nich niesie ze sobą ryzyko długotrwałych następstw, takich jak porzucenie aplikacji przez użytkowników, negatywny marketing pantoflowy, a nawet odpowiedzialność karna.

– Aplikacje, które zarabiają na zaangażowaniu użytkowników, winny poważnie przemyśleć, czy mają zamiar w dalszym ciągu wykorzystywać tego typu taktyki manipulacji emocjonalnej, bądź przynajmniej rozważyć wykorzystywanie jedynie niektórych spośród nich – zaakcentował Julian De Freitas.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *