Sztuczna inteligencja w służbie zdrowia i pomyłki lekarskie. Trudności pacjentów w uzyskaniu rekompensaty.

Sztuczna Inteligencja W Subie Zdrowia I Pomyki Lekarskie Trudnoci Pacjentw W Uzyskaniu Rekompensaty C1b106e, NEWSFIN

Obecnie AI znajduje zastosowanie praktycznie w każdej sferze opieki medycznej – tak wynika z nowego opracowania

Foto: Adobe Stock

Maria Krzos

Reklama

Z tego artykułu zaznajomisz się z:

  • Jakie dylematy prawne pojawiają się w związku z użyciem AI w medycynie?
  • W jakich dziedzinach zdrowia AI już znajduje swoje zastosowanie?
  • Jakie są komplikacje w szacowaniu bezpieczeństwa oraz efektywności narzędzi AI?
  • Jakie polskie badania są powiązane z aplikacją AI w medycynie?

Kongres zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony inteligencji sztucznej przyciągnął szerokie spektrum specjalistów związanych z sektorem zdrowotnym, w tym lekarzy, korporacje technologiczne, organy regulujące, towarzystwa ubezpieczeniowe, etyków, prawników i ekonomistów. Jego rezultatem jest raport zatytułowany „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence”, udostępniony 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na to, że skutkiem ubocznym wprowadzania różnorodnych narzędzi AI mogą być trudności w identyfikacji uchybień w użytkowaniu tych narzędzi bądź błędów popełnionych podczas ich opracowywania. To może komplikować pacjentom egzekwowanie swoich praw przed sądem – donosi „The Guardian”.

Reklama Reklama

Ustalenie, kto ponosi odpowiedzialność za pomyłkę, również może stanowić problem. – Wzajemne interakcje między stronami mogą również stanowić przeszkodę dla wniesienia powództwa – strony mogą wskazywać się nawzajem jako winne, mogą też obowiązywać je umowy umowne regulujące odpowiedzialność lub prowadzić spory o odszkodowanie – zaznacza prof. Cohen cytowany przez „Guardiana”.

Proces implementacji i rozwoju AI „pozostaje nieokreślony”

Autorzy raportu są przekonani, że w najbliższych latach sztuczna inteligencja gruntownie zmieni każdy aspekt zdrowia i opieki zdrowotnej. Podkreślają, że zasięg, skala i tempo przemian są ogromne. „Panuje ogromny zapał w odniesieniu do potencjału AI – zwłaszcza w świetle ostatnich postępów – do eliminowania długotrwałych problemów związanych z dostępnością, kosztami i jakością świadczonej opieki” – czytamy. „Jednakże optymalna droga rozwoju i implementacji AI pozostaje niejasna. W odróżnieniu od farmaceutyków czy tradycyjnych urządzeń medycznych, aktualnie brak spójnych ram zapewniających rzetelną, bezpieczną, zrozumiałą i ujednoliconą ocenę, regulację, implementację oraz nadzór nad nowymi narzędziami i technologiami bazującymi na AI” – napisano w opracowaniu.

Autorzy raportu wskazują, że obecnie sztuczna inteligencja jest stosowana w każdej dziedzinie opieki zdrowotnej. Obejmuje to zarówno narzędzia kliniczne (np. systemy ostrzegawcze dotyczące sepsy czy oprogramowanie do wstępnego badania retinopatii cukrzycowej), technologie wykorzystywane przez osoby z problemami zdrowotnymi (np. aplikacje mobilne dotyczące zdrowia), instrumenty stosowane przez systemy opieki zdrowotnej w celu usprawnienia działania (np. zarządzanie cyklem wpływów czy tworzenie harmonogramów), jak i rozwiązania hybrydowe wspomagające zarówno operacje biznesowe (np. dokumentacja i rozliczenia), jak i interwencje kliniczne (np. sugerowanie diagnoz lub planów leczenia).

Bezpieczeństwo i skuteczność AI w sektorze zdrowotnym. Jak je oszacować?

Jednym z podstawowych wyzwań podczas implementacji narzędzi AI jest zagadnienie oceny ich wpływu na system bezpieczeństwa i efektywności. Eksperci są zgodni, że AI może dać wiele korzyści całemu systemowi, jednak istnieją również przyczyny do niepokoju. Jedną z nich jest to, że znaczna część narzędzi bazujących na sztucznej inteligencji pozostaje poza zasięgiem kontroli instytucji nadzorczych, takich jak Amerykańska Agencja ds. Żywności i Leków (FDA).

To nie wszystko. Autorzy zaznaczają, że już sama specyfika AI sprawia, że niezwykle trudno jest ją oszacować za pomocą dotychczasowych metod oraz kryteriów. „Główną przeszkodą w ocenie efektywności jest fakt, że rezultaty działania danego narzędzia w dużym stopniu zależą od interakcji człowiek–komputer, stopnia wyszkolenia użytkownika oraz kontekstu, w jakim narzędzie jest wykorzystywane. Liczne inicjatywy określają standardy odpowiedzialnego stosowania AI, ale większość z nich koncentruje się na monitoringu bezpieczeństwa (np. wykrywaniu błędów generatywnych modeli) albo zapewnieniu zgodności instytucjonalnej z różnymi procedurami, a nie na szacowaniu efektywności (czyli udowodnieniu poprawy wyników zdrowotnych)” – czytamy.

Wykorzystanie algorytmów przez zakłady ubezpieczeń

Raport odnosi się do sytuacji panującej w USA, a niektóre z opisanych w nim problemów są powiązane ze specyfiką tamtejszego rynku. Jednym z nich jest użycie algorytmów AI przez zakłady ubezpieczeń do oceniania wniosków o tzw. uprzednią autoryzację składanych przez lekarzy. Uprzednia autoryzacja (ang. prior authorization lub preauthorization) to procedura administracyjna, w której lekarz bądź pacjent jest zobowiązany otrzymać aprobatę ubezpieczyciela przed zrealizowaniem konkretnej usługi medycznej, podaniem medykamentu albo przeprowadzeniem badania. Brak akceptacji oznacza, że firma ubezpieczeniowa nie pokrywa kosztów.

Polskie badania: Używanie AI może zredukować umiejętności medyków

Zagrożenia i możliwości wynikające z użycia AI w medycynie są tematem analiz również w Polsce. Niedawno rozgłos zyskały wyniki badań opublikowanych w „The Lancet Gastroenterology & Hepatology” zrealizowanych przy współudziale polskich laboratoriów endoskopowych.

Reklama Reklama Reklama

Przeanalizowano w nich efekty kolonoskopii wykonywanych przez lekarzy z pomocą AI oraz bez udziału tej technologii. Pozyskane dane wskazują, że korzystanie przez lekarzy z asysty AI spowodowało, że kiedy przestali z niej korzystać, ich sprawność się obniżyła (w zestawieniu z poziomem, jaki prezentowali, nim zaczęli korzystać z AI). Uzyskany przez nich wskaźnik wykrywalności zmian, które mogą przekształcić się w nowotwór, „przed AI” wynosił 28,4 proc., natomiast „po AI” – 22,4 proc.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *