Obecnie AI znajduje zastosowanie praktycznie w każdej sferze opieki medycznej – tak wynika z nowego opracowania
Maria Krzos
Reklama
Z tego artykułu zaznajomisz się z:
- Jakie dylematy prawne pojawiają się w związku z użyciem AI w medycynie?
- W jakich dziedzinach zdrowia AI już znajduje swoje zastosowanie?
- Jakie są komplikacje w szacowaniu bezpieczeństwa oraz efektywności narzędzi AI?
- Jakie polskie badania są powiązane z aplikacją AI w medycynie?
Kongres zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony inteligencji sztucznej przyciągnął szerokie spektrum specjalistów związanych z sektorem zdrowotnym, w tym lekarzy, korporacje technologiczne, organy regulujące, towarzystwa ubezpieczeniowe, etyków, prawników i ekonomistów. Jego rezultatem jest raport zatytułowany „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence”, udostępniony 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na to, że skutkiem ubocznym wprowadzania różnorodnych narzędzi AI mogą być trudności w identyfikacji uchybień w użytkowaniu tych narzędzi bądź błędów popełnionych podczas ich opracowywania. To może komplikować pacjentom egzekwowanie swoich praw przed sądem – donosi „The Guardian”.
Reklama Reklama
Ustalenie, kto ponosi odpowiedzialność za pomyłkę, również może stanowić problem. – Wzajemne interakcje między stronami mogą również stanowić przeszkodę dla wniesienia powództwa – strony mogą wskazywać się nawzajem jako winne, mogą też obowiązywać je umowy umowne regulujące odpowiedzialność lub prowadzić spory o odszkodowanie – zaznacza prof. Cohen cytowany przez „Guardiana”.
Proces implementacji i rozwoju AI „pozostaje nieokreślony”
Autorzy raportu są przekonani, że w najbliższych latach sztuczna inteligencja gruntownie zmieni każdy aspekt zdrowia i opieki zdrowotnej. Podkreślają, że zasięg, skala i tempo przemian są ogromne. „Panuje ogromny zapał w odniesieniu do potencjału AI – zwłaszcza w świetle ostatnich postępów – do eliminowania długotrwałych problemów związanych z dostępnością, kosztami i jakością świadczonej opieki” – czytamy. „Jednakże optymalna droga rozwoju i implementacji AI pozostaje niejasna. W odróżnieniu od farmaceutyków czy tradycyjnych urządzeń medycznych, aktualnie brak spójnych ram zapewniających rzetelną, bezpieczną, zrozumiałą i ujednoliconą ocenę, regulację, implementację oraz nadzór nad nowymi narzędziami i technologiami bazującymi na AI” – napisano w opracowaniu.
Autorzy raportu wskazują, że obecnie sztuczna inteligencja jest stosowana w każdej dziedzinie opieki zdrowotnej. Obejmuje to zarówno narzędzia kliniczne (np. systemy ostrzegawcze dotyczące sepsy czy oprogramowanie do wstępnego badania retinopatii cukrzycowej), technologie wykorzystywane przez osoby z problemami zdrowotnymi (np. aplikacje mobilne dotyczące zdrowia), instrumenty stosowane przez systemy opieki zdrowotnej w celu usprawnienia działania (np. zarządzanie cyklem wpływów czy tworzenie harmonogramów), jak i rozwiązania hybrydowe wspomagające zarówno operacje biznesowe (np. dokumentacja i rozliczenia), jak i interwencje kliniczne (np. sugerowanie diagnoz lub planów leczenia).
Bezpieczeństwo i skuteczność AI w sektorze zdrowotnym. Jak je oszacować?
Jednym z podstawowych wyzwań podczas implementacji narzędzi AI jest zagadnienie oceny ich wpływu na system bezpieczeństwa i efektywności. Eksperci są zgodni, że AI może dać wiele korzyści całemu systemowi, jednak istnieją również przyczyny do niepokoju. Jedną z nich jest to, że znaczna część narzędzi bazujących na sztucznej inteligencji pozostaje poza zasięgiem kontroli instytucji nadzorczych, takich jak Amerykańska Agencja ds. Żywności i Leków (FDA).
To nie wszystko. Autorzy zaznaczają, że już sama specyfika AI sprawia, że niezwykle trudno jest ją oszacować za pomocą dotychczasowych metod oraz kryteriów. „Główną przeszkodą w ocenie efektywności jest fakt, że rezultaty działania danego narzędzia w dużym stopniu zależą od interakcji człowiek–komputer, stopnia wyszkolenia użytkownika oraz kontekstu, w jakim narzędzie jest wykorzystywane. Liczne inicjatywy określają standardy odpowiedzialnego stosowania AI, ale większość z nich koncentruje się na monitoringu bezpieczeństwa (np. wykrywaniu błędów generatywnych modeli) albo zapewnieniu zgodności instytucjonalnej z różnymi procedurami, a nie na szacowaniu efektywności (czyli udowodnieniu poprawy wyników zdrowotnych)” – czytamy.
Wykorzystanie algorytmów przez zakłady ubezpieczeń
Raport odnosi się do sytuacji panującej w USA, a niektóre z opisanych w nim problemów są powiązane ze specyfiką tamtejszego rynku. Jednym z nich jest użycie algorytmów AI przez zakłady ubezpieczeń do oceniania wniosków o tzw. uprzednią autoryzację składanych przez lekarzy. Uprzednia autoryzacja (ang. prior authorization lub preauthorization) to procedura administracyjna, w której lekarz bądź pacjent jest zobowiązany otrzymać aprobatę ubezpieczyciela przed zrealizowaniem konkretnej usługi medycznej, podaniem medykamentu albo przeprowadzeniem badania. Brak akceptacji oznacza, że firma ubezpieczeniowa nie pokrywa kosztów.
Polskie badania: Używanie AI może zredukować umiejętności medyków
Zagrożenia i możliwości wynikające z użycia AI w medycynie są tematem analiz również w Polsce. Niedawno rozgłos zyskały wyniki badań opublikowanych w „The Lancet Gastroenterology & Hepatology” zrealizowanych przy współudziale polskich laboratoriów endoskopowych.
Reklama Reklama Reklama
Przeanalizowano w nich efekty kolonoskopii wykonywanych przez lekarzy z pomocą AI oraz bez udziału tej technologii. Pozyskane dane wskazują, że korzystanie przez lekarzy z asysty AI spowodowało, że kiedy przestali z niej korzystać, ich sprawność się obniżyła (w zestawieniu z poziomem, jaki prezentowali, nim zaczęli korzystać z AI). Uzyskany przez nich wskaźnik wykrywalności zmian, które mogą przekształcić się w nowotwór, „przed AI” wynosił 28,4 proc., natomiast „po AI” – 22,4 proc.