Nierówna ścieżka sztucznej inteligencji w medycynie. Od pomyłek w badaniach wątroby do sporów prawnych.

Firma OpenAI ogłosiła w styczniu nowy moduł ChatGPT, który ma za zadanie, między innymi, analizować wyniki badań krwi w oparciu o dokumentację medyczną. Użytkownicy nie powinni jednak sądzić, że otrzymają diagnozę od ChatGPT – oznajmiła dla PAP liderka AI w Zdrowiu, Ligia Kornowska.

Wyboista droga AI do szpitali. Od błędnych wyników wątrobowych po pozwy sądowe

fot. raker / / Shutterstock

Open AI zaprezentowała nową opcję do wyszukiwania informacji na temat zdrowia. Użytkownicy będą ją znali pod nazwą ChatGPT Health. Moduł ma być osiągalny w menu paska bocznego chatbota i ma udzielać informacji w oparciu o przekazaną przez użytkownika dokumentację medyczną. Funkcjonalność ta oferuje między innymi analizy wyników badań krwi oraz sugestie dietetyczne.

ChatGPT zamiast lekarza? Odpowiedź na potrzeby milionów

Zdaniem Open AI, jest to reakcja na społeczne zapotrzebowanie. Z raportu Open AI „AI as a Healthcare Ally” ze stycznia wynika bowiem, że do ChatGPT zwraca się każdego dnia ponad 40 milionów użytkowników z pytaniami dotyczącymi opieki zdrowotnej, a przeszło 5 procent wszystkich wiadomości z asystentem AI porusza kwestię opieki zdrowotnej.

Ligia Kornowska, liderka koalicji „AI w Zdrowiu”, zajmująca się zagadnieniem zastosowania AI w dziedzinie zdrowia, zwraca uwagę na związane z tym zagrożenia.

– Jeżeli algorytm sztucznej inteligencji ma bezpośrednio oddziaływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z przepisami prawnymi odnoszącymi się do wyrobów medycznych czy tak zwanych algorytmów wysokiego ryzyka – powiedziała ekspertka. I to bez względu na to, czy z systemu korzysta pacjent, czy lekarz.

W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak ma to miejsce w przypadku ChatGPT Health, w gruncie rzeczy nie wiemy, czy ten algorytm poda pacjentowi rzetelne informacje, czy też wprowadzi go w błąd – zauważyła Kornowska.

Narzędzia dla szpitali a RODO

Jej zdaniem, taka certyfikacja umożliwia dostarczenie informacji na temat tego, na ile algorytm jest efektywny i dokładny, jak również z jakim prawdopodobieństwem powie użytkownikom prawdę, a z jakim może ich zmylić.

Zdaniem Kornowskiej, obszar zastosowania ChatGPT-Zdrowie powinien być zatem na razie ograniczony do celów edukacyjnych. Powinien zawierać informację, że każda wiadomość, którą przekazuje chat, musi zostać zweryfikowana we własnym zakresie. Również pacjenci – jak mówiła liderka „AI w Zdrowiu” – nie powinni być skłaniani do przekonania, że otrzymają diagnozę od tego asystenta AI. – W takim ujęciu ChatGPT na pewno nie zastąpi konsultacji lekarskiej – zaakcentowała.

Firma OpenAI zaprezentowała także pakiet narzędzi dla organizacji medycznych „OpenAI for Healthcare”. Ma on proponować, między innymi:

  • wsparcie w pracy administracyjnej, czyli tworzenie streszczeń wypisów,
  • rekomendacji dla pacjentów,
  • not klinicznych.

Z takich narzędzi korzystają już amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.

Kornowska zwróciła jednak uwagę, że obszar ochrony danych osobowych, zwłaszcza tych wrażliwych, regulowany jest odmiennie w Unii Europejskiej i odmiennie w Stanach Zjednoczonych. – Korzystając z narzędzia pochodzącego z USA, trzeba się upewnić, że jest ono zgodne z regulacjami unijnymi, takimi jak ogólne rozporządzenie o ochronie danych osobowych RODO – podkreśliła ekspertka.

Tragiczne skutki porad chatbotów?

Na problemy powiązane z korzystaniem z porad medycznych asystentów AI zwrócił uwagę także niedawno brytyjski dziennik „The Guardian”. Styczniowe dochodzenie dziennika wykazało, że zestawienia generowane przez AI wyszukiwarki Google podawały nieprecyzyjne informacje zdrowotne. Miały one dotyczyć między innymi kluczowych badań czynności wątroby. Według „Guardiana”, na podstawie tych informacji osoby z poważnymi schorzeniami tego narządu mogłyby błędnie sądzić, że są zdrowe.

Rzecznik Google, zapytany przez brytyjski dziennik, odparł, że firma nie komentuje pojedynczych usunięć w wyszukiwarce. „W przypadkach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzaniem szeroko zakrojonych ulepszeń i w razie potrzeby podejmujemy działania zgodnie z naszymi zasadami” – wyjaśniał.

Kontrowersje wywołał także wpływ chatbotów na zdrowie psychiczne użytkowników. W sierpniu ubiegłego roku świat obiegła wiadomość o pozwaniu do sądu firmy OpenAI w związku z samobójczą śmiercią 14-letniego Adama z Kalifornii. Jego rodzice twierdzili, że ChatGPT nakłaniał go do pozbawienia się życia.

W listopadzie ubiegłego roku agencja Associated Press informowała, że do firmy OpenAI wpłynęło łącznie siedem podobnych pozwów. Twierdzono w nich, że ChatGPT doprowadził do samobójstw i szkodliwych urojeń u osób, które wcześniej nie miały problemów psychicznych.

W odpowiedzi OpenAI oświadczyło, że wdrożone zostały zabezpieczenia w przypadkach, gdy rozmowy z ChatGPT dotyczyły tematów delikatnych. „Nieustannie ulepszamy szkolenia ChatGPT, aby rozpoznawać i reagować na symptomy stresu psychicznego lub emocjonalnego, łagodzić napięcia w rozmowach i kierować ludzi do realnego wsparcia” – napisała firma.

Weronika Moszpańska (PAP)

wm/ pś/ mhr/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *