Twój koszyk jest obecnie pusty!

AI potrafi analizować dane szybciej niż jakikolwiek zespół medyczny. Ale czy rozumie pacjenta tak dobrze, by jej wskazówkom można było całkowicie zaufać? Jak sprawić, by algorytmy działały skutecznie – ale też z uwzględnieniem potrzeb pacjentów, ochrony ich danych i prawa? O tym, jak kształtować odpowiedzialne wykorzystanie AI w praktyce klinicznej, opowiada dr inż. Michał Maciejewski, Data & Analytics Expert w Roche Polska.
Rozwój sztucznej inteligencji przebiega w niespotykanym tempie. Jak zmienia to sposób, w jaki powinniśmy dziś patrzeć na innowacje w medycynie?
Rozwój sztucznej inteligencji realnie wpływa na codzienną praktykę kliniczną. Z jednej strony technologia ta otwiera drogę do szybszej diagnostyki, bardziej precyzyjnych terapii i sprawniejszej komunikacji. Równocześnie stawia nas przed krytycznym problemem: jak zapewnić, by te powstające w dużej mierze globalnie, zaawansowane narzędzia były bezpieczne, etyczne i rzeczywiście skuteczne w konkretnej, lokalnej rzeczywistości systemu ochrony zdrowia, na przykład w Polsce?
Problem ten jest dwutorowy: dotyczy zarówno określenia zakresu stosowania danego rozwiązania, jak i konieczności dostosowania go do lokalnych populacji. Organizując pierwszy w Polsce Healthcare Datathon przy współpracy Roche Polska, Uniwersyteckiego Centrum Klinicznego w Gdańsku, Gdańskiego Uniwersytetu Medycznego i MIT Critical Data, kierowaliśmy się przekonaniem, że prawdziwą miarą wartości każdej innowacji w medycynie jest jej pacjento-centryczność, a kluczem do odpowiedzialnego wdrożenia AI jest dogłębne zrozumienie jej możliwości i ograniczeń. Dodatkowo, wdrożenia AI powinny działać w tle, wspierając medyków w procesie diagnozy i leczenia, nie zaś stanowić dodatkowy obowiązek w ich codziennej pracy.
Z perspektywy pacjenta – jakie obszary ochrony zdrowia mogą najbardziej skorzystać na wdrażaniu AI?
Jako inżynier danych chciałbym przede wszystkim zwrócić uwagę na korzyści płynące ze składowania i przetwarzania danych medycznych, poczynając od podstawowych analiz statystycznych. UCK Gdańsk jest w tym obszarze jednym z pionierów zastosowania danych medycznych do monitorowania dobrostanu pacjenta oraz przewidywania pogorszenia się stanu zdrowia w niedalekiej przyszłości. Z kolei w szpitalu Massachusetts General Hospital podczas pandemii Covid-19, relatywnie prosty model bazujący na regułach logicznych, był w stanie przewidzieć jakie symptomy u pacjentów wiążą się z podwyższonym ryzykiem ciężkiego przebiegu choroby. Wbrew panującej modzie na GenAI, sztuczna inteligencja to szeroki wachlarz możliwości – przykłady z Gdańska czy Bostonu pokazują, że proste modele dostarczają heurystyk dla lekarzy.
Dla pacjenta wykorzystanie sztucznej inteligencji w ochronie zdrowia może przełożyć się na realne korzyści: krótszy czas oczekiwania na diagnozę, lepiej dopasowaną terapię i łatwiejszy kontakt z lekarzem. Globalny problem stanowi niedostateczna liczba medyków względem bieżących potrzeb, więc każde usprawnienie dzięki technologii jest na wagę złota. Co ważne, badania pokazują, że w kontakcie z narzędziami cyfrowymi pacjenci nierzadko czują się swobodniej niż w bezpośredniej rozmowie, dzięki czemu chętniej dzielą się informacjami o swoim stanie zdrowia. Jak podkreślono w artykule „Patients’ perspectives on digital health tools” (2023) aplikacje i cyfrowi asystenci zwiększają poczucie kontroli, wspierają samodzielne zarządzanie terapią i ułatwiają monitorowanie objawów. Prelegenci przytaczali badanie preferencji pacjentów wskazujące, iż preferują odpowiedzi LLMów od lekarzy, ze względu na większą empatię i zrozumienie.
Z drugiej strony modele językowe znane są z generowania przekonujących halucynacji i trudności w przyznaniu się do braku wiedzy w danej dziedzinie. Jeden z lekarzy podczas panelu dyskusyjnego wskazał na rosnący niepokój i oczekiwania pośród pacjentów, którzy diagnozują się modelami językowymi przed pierwszą wizytą onkologiczną. Zamiast skupić się na przedstawieniu procesu leczenia musi obalać błędne informacje dostarczone przez LLM. Z perspektywy medyków warto zwrócić uwagę na niedawne badania opublikowane w czasopiśmie Lancet z udziałem polskich lekarzy, które wykazały, iż umiejętności lekarzy stosujących AI do detekcji nowotworów pogarszają się. To odkrycie wpisuje się w szerszy kontekst wpływu AI na edukację, który również był dyskutowany podczas konferencji.
Coraz częściej mówi się o znaczeniu lokalnych danych klinicznych. Dlaczego właśnie one mogą przesądzić o skuteczności narzędzi AI w Polsce?
Globalne modele sztucznej inteligencji budzą podziw, ale często są trenowane na danych odmiennych od charakterystyki lokalnych populacji poszczególnych krajów. Dlatego tak duże znaczenie mają projekty oparte na lokalnych danych pacjentów. W Gdańsku Uniwersyteckie Centrum Kliniczne (UCK) i Gdański Uniwersytet Medyczny rozwijają Interdyscyplinarne Pomorskie Centrum Medycyny Cyfrowej, które integruje dane kliniczne, obrazowe i biologiczne, aby lepiej dopasowywać algorytmy do codziennej praktyki medycznej w Polsce. Używanie lokalnych zbiorów danych wpisuje się w cele Europejskiej Przestrzeni Danych Zdrowotnych (EHDS), ponieważ jej zdecentralizowana architektura opiera się na krajowych systemach, które agregują dane z lokalnych źródeł, aby umożliwić ich bezpieczne, transgraniczne wykorzystywanie do leczenia, badań naukowych i innowacji.
Podczas drugiego dnia podjęliśmy się rozwiązania pierwszego kluczowego wyzwania: analizy nieplanowanych rehospitalizacji (readmisji) w UCK Gdańsk. Po raz pierwszy w Polsce wykorzystaliśmy lokalny, zanonimizowany kliniczny zbiór danych. Wnioski były bardzo konkretne: na przykład, zidentyfikowano szczyty readmisji w grupach wiekowych około 30 i 65 lat. Dodatkowo przeprowadzone analizy wykazały związek między jednostkami chorobowymi a prawdopodobieństwem ponownej hospitalizacji. Wyniki te posłużą do stworzenia realnych zaleceń dla szpitala w tym zakresie. Co ważne, zauważyliśmy, że bardziej zróżnicowane zespoły (lekarze, inżynierowie, studenci) przeprowadzały głębsze i bardziej wnikliwe analizy. Wierzymy, że nasze doświadczenia w wielowymiarowej anonimizacji zbioru danych oraz wykorzystania bezpiecznego środowiska obliczeniowego będą stanowiły przykład dla podobnych inicjatyw w przyszłości w innych placówkach medycznych.
Modele językowe osiągają już poziom zdawalności lekarskich egzaminów specjalizacyjnych. Jak Pan patrzy na ich potencjał i ograniczenia w praktyce klinicznej?
Najbardziej spektakularny rozwój obserwujemy dziś w obszarze dużych modeli językowych (LLMy). Potencjał jest niezaprzeczalny – polskie badanie z 2024 roku wykazało, że GPT-4 zdał pozytywnie aż 222 z 297 egzaminów specjalizacyjnych. Równocześnie, musimy być świadomi ograniczeń, a kluczowe jest to, jak te modele zachowują się w rzeczywistości klinicznej. Niedawna publikacja naukowców z MIT pokazała, że wiadomości zawierające literówki oraz barwne opisy przekładały się na niższą jakość odpowiedzi.
W ramach drugiego wyzwania LLM-a-thonu – podjęliśmy się ewaluacji modeli językowych w kontekście stwardnienia rozsianego. Przy współpracy z neurologami z Kliniki Neurologii Dorosłych UCK w Gdańsku stworzyliśmy benchmark zawierający pytania i odpowiedzi dotyczące tej choroby. Badanie to miało na celu odpowiedź na realne problemy, jakie LLMy generują już teraz: udzielanie błędnych informacji medycznych jak również wzrost niepokoju u pacjentów diagnozujących się LLMami i dodatkowe obciążenie dla lekarzy.
Zespoły, w skład których wchodzili lekarze, pacjenci i eksperci, wykazały, że nawet drobne zmiany w zapytaniu mogą prowadzić do błędnych odpowiedzi modeli. To wyraźny sygnał, że pomimo wysokiej zdawalności testów, ich wykorzystanie w praktyce klinicznej wymaga edukacji w zakresie dozwolonych zastosowań i skutków niepożądanych. Zrozumienie, kiedy i dlaczego model się myli oraz jak należy ich używać, jest kluczowe, ponieważ potrafią one przekonywująco halucynować, jak również wzmacniać przekonania użytkowników poprzez przytakiwanie nawet na ich błędne wiadomości (ang. sycophancy).
Badania nad nowymi lekami są kosztowne i obarczone dużym ryzykiem niepowodzenia. Jak sztuczna inteligencja może realnie wspierać naukowców i przyspieszać przełomy w tym obszarze?
Istotny jest jeszcze aspekt zaprzęgnięcia AI do pracy na rzecz powstawania leków. Chodzi o działania typu Lab in the Loop, które łączą eksperymenty laboratoryjne i kliniczne z najnowszymi osiągnięciami sztucznej inteligencji. Jednym z takich osiągnięć jest bez wątpienia model AlphaFold służący do bardzo precyzyjnego przewidywania struktury białek, za którego stworzenie przyznano w zeszłym roku Nagrodę Nobla w Chemii. Zastosowanie AI wraz z starannie wyselekcjonowanymi danymi medycznymi pozwala na szybsze i skuteczniejsze identyfikowanie celów terapeutycznych, projektowanie nowych cząsteczek i przewidywanie odpowiedzi pacjentów na leczenie. W obszarze danych drzemie również spory potencjał – historycznie mężczyźni krajów zachodnich stanowią 70% populacji badań klinicznych. Bardziej zbalansowane populacje, odkrycia w obszarze biomarkerów (w tym cyfrowych wykorzystujących urządzenia mobilne) oraz metod diagnostycznych to klucz do bardziej zrównoważonych zbiorów danych i w konsekwencji modeli AI. Dodatkowy wymiar Lab in the Loop stanowi automatyzacja prac R&D w laboratoriach. W jednej ze spółek Roche zajmującej się tworzeniem leków, metodologia ta znajduje zastosowanie m.in. w chorobach autoimmunologicznych, neurodegeneracyjnych, zakaźnych i w onkologii, zwiększając szanse powodzenia w odkrywaniu i rozwoju leków.
Dynamiczny rozwój technologii wymusza także regulacje. Jak pana zdaniem AI Act wpłynie na wykorzystanie sztucznej inteligencji w ochronie zdrowia?
Nie sposób pominąć aspektów etycznych i prawnych związanych z AI w medycynie. Zgodnie z AI Act, systemy AI mające wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe osób mogą być uznane za wysokiego ryzyka. To oznacza, że takie rozwiązania muszą spełniać surowe wymagania dotyczące m.in. jakości, bezpieczeństwa, transparentności oraz nadzoru ludzkiego. Pytanie o odpowiedzialność nabiera realnego znaczenia: kto odpowiada, gdy algorytm popełni błąd? AI Act przewiduje obowiązki dostawców i użytkowników, w tym prowadzenie dokumentacji i monitorowanie działania po wdrożeniu. Jasne regulacje odpowiedzialności i nadzoru to kolejny fundament budowania zaufania pacjentów do technologii.
Zakończony niedawno pierwszy Healthcare Datathon zgromadził lekarzy, pacjentów, urzędników, inżynierów i naukowców wokół wspólnych wyzwań. Co takie doświadczenia pokazują o potencjale współpracy interdyscyplinarnej?
W dobie AI myślenie krytyczne jest jedną z kluczowych umiejętności, która pozwala odsiać ziarna od plew. Współpraca ponad podziałami dyscyplin ma wielką siłę i jest kluczowa do budowania umiejętności krytycznego myślenia. Kiedy przy jednym stole spotykają się lekarze, inżynierowie, studenci i pacjenci, rodzą się rozwiązania, które realnie odpowiadają na potrzeby systemu ochrony zdrowia. Nie bez znaczenia było również to, iż konferencja odbyła się na terenie szpitala UCK Gdańsk w auli prof. Kieturakisa naprzeciwko bloku operacyjnego; jak dla mnie jest to polskie Princeton-Plainsboro.
Wydarzenie miało charakter międzynarodowy a uczestnicy reprezentowali wiodące ośrodki międzynarodowe (m.in. MIT, Harvard University, Stanford Healthcare, Google Research, Emory University, University College Dublin) oraz krajowe (m.in. UCK, GUMed, WUM, Politechniki Gdańska, Poznańska, Warszawska, Łódzka). Datathon udowodnił, że interdyscyplinarność nie tylko inspiruje, ale jest konieczna do mierzenia się z problemami etycznymi i technicznymi AI. To doświadczenie potwierdza, że partnerstwa Roche z uczelniami, szpitalami i instytucjami publicznymi tworzą ekosystem, w którym innowacje przestają być jedynie koncepcją, a stają się konkretnymi narzędziami wspierającymi codzienną pracę lekarzy i poprawiającymi doświadczenie pacjentów.
Na zakończenie – jakiej roli dla Polski w globalnym ekosystemie AI w medycynie możemy się spodziewać w najbliższych latach?
AI niesie ze sobą ogromny potencjał demokratyzacji dostępu do opieki zdrowotnej. Naszą wizją jest odpowiedzialna transformacja systemu, w której w centrum zawsze pozostaje człowiek. Kluczowe jest zrozumienie, że AI nie zastąpi lekarza, ale musi wzmocnić relację pacjent–lekarz, a nie ją zakłócić. Może usprawnić diagnostykę i przyspieszyć procesy terapeutyczne, czyniąc opiekę bardziej spersonalizowaną oraz dostępną dla wszystkich.
Polska ma realny potencjał, by wyznaczać standardy etycznego i odpowiedzialnego wykorzystania AI w medycynie i stać się przykładem dla innych krajów, udowadniając, że zaawansowane modele można bezpiecznie i efektywnie wdrożyć, zaczynając od lokalnej, dogłębnej weryfikacji. Jak ujął to dr Leo Anthony Celi, organizator Datathonów na całym świecie: „Angażowanie różnorodnych społeczności w rozwój AI jest najlepszą obroną, jaką mamy przed stronniczością i uprzedzeniami w medycynie.”





