W styczniu firma OpenAI zaprezentowała nowy moduł do ChatGPT, który ma za zadanie między innymi analizować rezultaty testów krwi na podstawie dokumentacji medycznej. Jednakże, użytkownicy nie powinni zakładać, że otrzymają diagnozę od ChatGPT – oznajmiła dla PAP liderka AI w Zdrowiu, Ligia Kornowska.

Open AI udostępniła nową funkcjonalność w celu wyszukiwania informacji dotyczących zdrowia. Będzie ona rozpoznawana przez użytkowników jako ChatGPT Health. Moduł będzie osiągalny w menu panelu bocznego chatbota i będzie udzielał danych w oparciu o dokumentację medyczną przesłaną przez użytkownika. Funkcjonalność ta proponuje między innymi analizy rezultatów badań krwi oraz wskazówki żywieniowe.
ChatGPT zamiast lekarza? Odpowiedź na potrzeby milionów
Według Open AI to reakcja na potrzeby społeczne. Z raportu Open AI „AI as a Healthcare Ally” ze stycznia wynika bowiem, że ponad 40 milionów użytkowników zwraca się codziennie do ChatGPT z pytaniami związanymi z opieką zdrowotną, a ponad 5% wszystkich wiadomości z asystentem AI dotyczy kwestii związanych z ochroną zdrowia.
Ligia Kornowska, liderka koalicji „AI w Zdrowiu”, która zajmuje się tematem wykorzystania AI w obszarach zdrowotnych, zwraca uwagę na zagrożenia z tym związane.
– Jeśli algorytm sztucznej inteligencji ma wywierać bezpośredni wpływ na decyzje diagnostyczno-lecznicze u pacjenta, powinien on być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tzw. algorytmów wysokiego ryzyka – powiedziała ekspertka. I to niezależnie od tego, czy z systemu korzysta chory, czy lekarz.
W sytuacjach, gdy algorytm nie stanowi certyfikowanego wyrobu medycznego, tak jak ma to miejsce w przypadku ChatGPT Health, w rzeczywistości nie jesteśmy pewni, czy algorytm ten przekaże pacjentowi właściwe informacje, czy też wprowadzi go w błąd – zauważyła Kornowska.
Narzędzia dla szpitali a RODO
Według niej tego typu certyfikacja umożliwia dostarczenie informacji na temat tego, w jakim stopniu algorytm jest efektywny i precyzyjny, a także z jakim prawdopodobieństwem przekazuje użytkownikom prawdę, a z jakim może ich wprowadzić w błąd.
Zdaniem Kornowskiej, użycie ChatGPT-Zdrowie powinno być zatem na obecną chwilę ograniczone do celów edukacyjnych. Powinno zawierać ono informację, że każda wiadomość przekazywana przez chat musi zostać zweryfikowana we własnym zakresie. Pacjenci również – jak wspomniała liderka „AI w Zdrowiu” – nie powinni być przekonani, że uzyskają diagnozę od tego asystenta AI. – W tym kontekście ChatGPT z pewnością nie zastąpi konsultacji medycznej – podkreśliła.
Firma OpenAI zaprezentowała ponadto zestaw narzędzi dla organizacji medycznych pod nazwą „OpenAI for Healthcare”. Ma on oferować między innymi:
- pomoc w pracy administracyjnej, czyli tworzenie podsumowań wypisów,
- rekomendacji dla pacjentów,
- not klinicznych.
Z tego rodzaju narzędzi korzystają już amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.
Kornowska zwróciła jednak uwagę na fakt, że sfera ochrony danych osobowych, zwłaszcza tych poufnych, regulowana jest w odmienny sposób w Unii Europejskiej i w Stanach Zjednoczonych. – Korzystając z narzędzia pochodzącego z USA, należy upewnić się, że spełnia ono regulacje unijne, takie jak ogólne rozporządzenie o ochronie danych RODO – podkreśliła ekspertka.
Tragiczne następstwa porad chatbotów?
Na kwestie związane z wykorzystywaniem porad medycznych asystentów AI zwrócił uwagę również niedawno brytyjski dziennik „The Guardian”. Styczniowe dochodzenie dziennika ujawniło, że streszczenia wygenerowane przez AI wyszukiwarki Google dostarczały nieścisłych informacji zdrowotnych. Miały one dotyczyć między innymi kluczowych badań czynności wątroby. Według „Guardiana”, na podstawie tych informacji, osoby cierpiące na poważne choroby tego narządu mogłyby błędnie sądzić, że są zdrowe.
Rzecznik Google, zapytany przez brytyjski dziennik, odparł, że firma nie komentuje poszczególnych usunięć w wyszukiwarce. „W sytuacjach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzeniem obszernych ulepszeń i w razie potrzeby podejmujemy kroki zgodnie z naszymi zasadami” – tłumaczył.
Kontrowersje wywołał również wpływ chatbotów na samopoczucie psychiczne użytkowników. W sierpniu ubiegłego roku świat obiegła wiadomość o wniesieniu pozwu do sądu przeciwko firmie OpenAI w związku z samobójczą śmiercią 14-letniego Adama z Kalifornii. Jego rodzice utrzymywali, że ChatGPT nakłaniał go do odebrania sobie życia.
W listopadzie ubiegłego roku agencja Associated Press informowała, że do firmy OpenAI wpłynęło w sumie siedem analogicznych pozwów. Twierdzono w nich, że ChatGPT przyczynił się do samobójstw oraz szkodliwych urojeń u ludzi, którzy wcześniej nie doświadczali problemów psychicznych.
W odpowiedzi OpenAI zadeklarowało, że wprowadzono zabezpieczenia w sytuacjach, gdy rozmowy z ChatGPT poruszały tematy delikatne. „Nieustannie doskonalimy szkolenia ChatGPT, aby rozpoznawać i reagować na symptomy stresu psychicznego lub emocjonalnego, redukować napięcia w rozmowach oraz kierować ludzi do realnego wsparcia” – oświadczyła firma.
Weronika Moszpańska (PAP)
wm/ pś/ mhr/
