„Lepiej niż czekać pół roku”: lekarze popierają uruchomienie ChatGPT Health

Eksperci poparli uruchomienie aplikacji ChatGPT Health do konsultacji zdrowotnych, mimo ryzyka wystąpienia halucynacji w modelach sztucznej inteligencji, donosi TechCrunch.

Sina Bari, praktykujący chirurg i szef działu sztucznej inteligencji w iMerit, opisał, jak jego pacjent konsultował się z ChatGPT:

„Niedawno przyszedł do mnie po tym, jak poleciłem mu lek i pokazał mi wydrukowaną rozmowę z chatbotem. Stwierdził, że lek ma 45% szans na wywołanie zatorowości płucnej ”.

Dr Bari sprawdził źródła i odkrył, że statystyki pochodzą z artykułu o wpływie leku na wąską grupę osób chorych na gruźlicę. Dane te okazały się nieodpowiadające jego przypadkowi klinicznemu.

Pomimo nieścisłości, lekarz pozytywnie ocenił uruchomienie ChatGPT Health. Jego zdaniem usługa pozwala użytkownikom na dyskusję na temat zdrowia w bardziej prywatnej atmosferze.

„Myślę, że to świetnie. To już się dzieje, więc sformalizowanie procesu ochrony danych pacjentów i wprowadzenie pewnych zabezpieczeń usprawni ten proces dla pacjentów” – powiedział dr Bari.

Użytkownicy mogą otrzymywać bardziej spersonalizowane rekomendacje od ChatGPT Health, przesyłając dokumentację medyczną i synchronizując aplikację z Apple Health i MyFitnessPal. Ten zakres dostępu do danych osobowych zaniepokoił społeczność.

„Nagle dane medyczne są przesyłane z organizacji zgodnych z ustawą HIPAA do dostawców, którzy tego nie robią. Ciekawe, jak zareagują na to organy regulacyjne” – powiedział współzałożyciel MIND, Itay Schwartz.

Ponad 230 milionów osób co tydzień rozmawia o swoich problemach zdrowotnych za pośrednictwem ChatGPT. Wielu z nich przestało szukać objawów w Google i zwróciło się do chatbota jako źródła informacji.

„To jeden z najważniejszych przypadków użycia ChatGPT. Nic więc dziwnego, że chcą stworzyć bardziej prywatną, bezpieczniejszą i zoptymalizowaną wersję chatbota dla sektora opieki zdrowotnej” – zauważył Schwartz.

Problem halucynacji

Głównym problemem chatbotów pozostają „halucynacje”, co jest szczególnie istotne w opiece zdrowotnej. Badania firmy Vectara wykazały, że GPT-5 firmy OpenAI „halucynuje” częściej niż konkurencyjne rozwiązania od Google i Anthropic.

Jednak profesor medycyny Uniwersytetu Stanforda, Nigam Shah, uważa te kwestie za drugorzędne. Według lekarza, prawdziwym problemem systemu jest utrudniony dostęp do lekarzy, a nie ryzyko otrzymania błędnej porady od ChatGPT.

„Obecnie, jeśli udasz się do dowolnego systemu opieki zdrowotnej i zechcesz zobaczyć się z lekarzem pierwszego kontaktu, musisz czekać od trzech do sześciu miesięcy. Gdybyś miał wybór: poczekać sześć miesięcy i udać się do prawdziwego specjalisty czy od razu porozmawiać z kimś, kto może ci pomóc, co byś wybrał?” – powiedział.

Zadania administracyjne mogą zająć lekarzowi około połowę czasu, co znacznie zmniejsza liczbę wizyt. Automatyzacja tych procesów pozwoli specjalistom poświęcić pacjentom więcej uwagi.

Dr Shah kieruje zespołem na Uniwersytecie Stanforda, który opracowuje ChatEHR, oprogramowanie umożliwiające lekarzom wydajną i efektywną pracę z elektroniczną dokumentacją medyczną pacjentów.

„Dzięki zwiększeniu przyjazności dla użytkownika, lekarze będą mogli poświęcać mniej czasu na wyszukiwanie odpowiednich informacji” – powiedziała dr Sneha Jain, jedna z pierwszych testerek ChatEHR.

Przypomnijmy, że w styczniu firma Anthropic ogłosiła wydanie Claude for Healthcare, zestawu narzędzi dla pracowników służby zdrowia i pacjentów.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *