Czyj jest Twój bliźniak?

Wyobraźmy sobie scenę z niedalekiej przyszłości. Idziesz do lekarza z bólem w klatce piersiowej. Zamiast od razu kierować Cię na kolejne badania, lekarz uruchamia symulację na Twoim „cyfrowym bliźniaku” – wirtualnym modelu Twojego organizmu, zasilanym danymi z dokumentacji medycznej, badań obrazowych, wyników laboratoryjnych, danych genetycznych i urządzeń noszonych.

Po kilku minutach system pokazuje podwyższone ryzyko incydentu sercowo-naczyniowego w kolejnych latach. Lekarz proponuje leczenie i zmianę stylu życia. Ty wychodzisz z gabinetu z receptą i pytaniem: kto właściwie podjął tę decyzję?

To nie jest już czyste science fiction. Zespół Natalii Trayanovej na Johns Hopkins University od lat rozwija cyfrowe bliźniaki serca, wykorzystywane do symulowania zabiegów i wspierania planowania ablacji. W literaturze opisuje się takie modele jako narzędzia do przewidywania przebiegu choroby i testowania wariantów interwencji przed zastosowaniem ich u konkretnego pacjenta.

Jednocześnie rozwija się sama koncepcja medycznego cyfrowego bliźniaka. W artykule opublikowanym w The Lancet Digital Health zaproponowano pięć podstawowych komponentów takiego systemu: pacjenta, połączenie danych, model „pacjenta in silico”, interfejs oraz mechanizm synchronizacji bliźniaka z danymi rzeczywistymi. To ważne, bo pokazuje, że nie chodzi o pojedynczy algorytm, tylko o cały ekosystem technologiczny.

Brzmi obiecująco. Medycyna bardziej spersonalizowana, lepsze prognozy, mniej decyzji opartych wyłącznie na uśrednionych wynikach populacyjnych. Problem zaczyna się wtedy, gdy pytamy nie tylko o skuteczność, ale także o władzę nad modelem. Do kogo należy Twój cyfrowy bliźniak?

W Stanach Zjednoczonych sprawa własności danych medycznych od dawna jest złożona. W uproszczeniu – pacjent ma szerokie prawa dostępu i kontroli nad wykorzystaniem informacji, ale fizyczny lub instytucjonalny nośnik dokumentacji medycznej często pozostaje pod kontrolą świadczeniodawcy lub systemu ochrony zdrowia. To rozróżnienie ma znaczenie. Jeśli model cyfrowego bliźniaka powstaje z danych pochodzących z wielu źródeł, to pytanie o własność i kontrolę staje się jeszcze trudniejsze.

I właśnie tu pojawia się luka prawna. W analizach etyczno-prawnych dotyczących cyfrowych bliźniaków autorzy wskazują, że precedensy prawne pozostają słabo rozwinięte, a kwestie własności, kontroli i podziału korzyści są w praktyce dalekie od rozstrzygnięcia. Pojawiają się propozycje – trusty danych, spółdzielnie danych pacjentów, mechanizmy benefit-sharing – ale nie tworzą one dziś jednolitego, szeroko wdrożonego systemu regulacyjnego.

A teraz mniej przyjemna część. Wyobraźmy sobie, że do predykcji generowanych przez taki model chcą sięgnąć inne instytucje. Ubezpieczyciel widzi długoterminowe ryzyko cukrzycy typu 2 i podnosi składkę. Pracodawca dostaje „profil ryzyka” dotyczący zdrowia psychicznego czy wypalenia i zaczyna podejmować decyzje kadrowe ostrożniej – czyli de facto dyskryminacyjnie. W sporze sądowym jedna strona próbuje użyć symulacji zdrowotnej jako argumentu o przewidywanej długości życia. Część tych scenariuszy brzmi dziś skrajnie. Nie są jednak absurdalne. Wynikają z logiki predykcyjnego profilowania. Już teraz w Polsce można dostać zniżkę na OC i AC za udostępnienie danych w czasie rzeczywistym o swoim stylu jazdy – ciekawe kiedy zaczną funkcjonować analogiczne podwyżki.

W podobnym kontekście warto pamiętać o aferze Cambridge Analytica. Pokazała ona skalę nadużyć związanych z pozyskiwaniem danych i politycznym mikrotargetowaniem. Nie rozstrzygnęła jednak jednoznacznie, jak duża była faktyczna skuteczność psychograficznego wpływu na zachowania wyborcze, bo to wciąż przedmiot sporów badawczych. Jako ostrzeżenie przed infrastrukturą profilowania ten przykład jednak jest nadal bardzo adekwatny. Medyczny cyfrowy bliźniak byłby przy tym źródłem danych znacznie głębszych niż historia kliknięć w mediach społecznościowych.

Jest jeszcze kwestia odpowiedzialności. Kto odpowiada, jeśli lekarz skorzysta z rekomendacji systemu opartego na cyfrowym bliźniaku, a pacjent dozna szkody? Lekarz, producent oprogramowania, szpital, integrator danych? Literatura bioetyczna i prawna od lat wskazuje, że przypisanie odpowiedzialności (zwłaszcza prawnej) pozostaje otwartą kwestią i staje się coraz mniej jednoznaczne wraz ze wzrostem złożoności systemów. To nie jest detal techniczny. To rdzeń zaufania do medycyny.

Unia Europejska próbuje nadążyć. AI Act klasyfikuje wiele systemów AI stosowanych w ochronie zdrowia jako systemy wysokiego ryzyka i nakłada wymogi dotyczące zarządzania ryzykiem, jakości danych, dokumentacji, nadzoru człowieka oraz przejrzystości wobec użytkowników. To realny krok naprzód. Zarazem AI Act jest regulacją horyzontalną. Nie odpowiada szczegółowo na wszystkie problemy specyficzne dla cyfrowych bliźniaków medycznych, zwłaszcza tam, gdzie łączą one dane kliniczne, behawioralne i środowiskowe w jednym modelu predykcyjnym.

Co na to ludzie? W badaniu opublikowanym w npj Digital Medicine większość szwajcarskich respondentów deklarowała zainteresowanie zastosowaniem cyfrowych bliźniaków w medycynie, ale jednocześnie zdecydowanie sprzeciwiała się obowiązkowi ich stosowania. Innymi słowy – akceptacja dla korzyści nie oznacza zgody na przymus. Pacjenci chcą skutecznej medycyny, ale chcą też zachować kontrolę.

Sedno problemu jest proste. Twój cyfrowy bliźniak nie jest Tobą. To model – użyteczny, czasem bardzo trafny, czasem omylny – zbudowany na podstawie danych i założeń. Ale decyzje podejmowane na jego podstawie będą dotyczyć Ciebie, nie modelu. Jeśli model się pomyli, jeśli przeszacuje ryzyko, jeśli wbudowane w niego uprzedzenia danych uderzą w konkretną grupę pacjentów, skutki poniesie człowiek.

Dlatego najważniejsze pytanie nie brzmi dziś: czy potrafimy budować coraz lepsze cyfrowe bliźniaki? Potrafimy – i będziemy robić to coraz sprawniej. Pytanie brzmi: kto kontroluje ich użycie, kto ponosi odpowiedzialność za szkody i jakie prawa zachowuje pacjent wobec modelu zbudowanego z jego życia.

To właśnie od odpowiedzi na te pytania zależy, czy cyfrowy bliźniak stanie się narzędziem medycyny precyzyjnej, czy kolejnym mechanizmem predykcyjnej kontroli.

Profesor zarządzania Akademii Leona Koźmińskiego, gdzie kieruje katedrą MINDS (Management in Networked and Digital Societies). Pracuje też jako faculty associate w Berkman-Klein Center for Internet and Society na Harvardzie. Wiceprezes Polskiej Akademii Nauk. Członek Rady Programowej CampusAI.

Share

You might be interested in