Był dr Google, nadchodzi dr AI. Co zmienia ChatGPT Health?

Uruchomienie ChatGPT Health przez OpenAI można taktować dwojako: jako kolejny produkt w ekosystemie AI albo jako potwierdzenie, że zmienia się coś znacznie ważniejszego: moment, w którym rodzi się diagnoza i kształtuje terapia.

Krzysztof Mirończuk

Loading the Elevenlabs Text to Speech AudioNative Player…

Nie chodzi o to, że sztuczna inteligencja nagle weszła do medycyny. Ona jest tam od dawna. Chodzi o to, że coraz częściej pierwsze interpretacje objawów, pierwsze hipotezy i pierwsze emocje związane ze zdrowiem pojawiają się nie w gabinecie, lecz wcześniej. Przed ekranem. W rozmowie z algorytmem.

OpenAI nie próbuje stworzyć nowego nawyku. Próbuje wykorzystać istniejący. A skala jest trudna do zignorowania –około 200 milionów użytkowników tygodniowo zadaje ChatGPT pytania związane ze zdrowiem, a około 40 milionów robi to każdego dnia.

Do lekarza z diagnozą

Z perspektywy lekarzy ten proces nie jest nowy. Od lat mówią o pacjentach przychodzących do gabinetów z gotową narracją. Z wydrukami. Z forów. Z wyszukiwarek. Przez długi czas traktowano to jako uboczny efekt internetu. Dane pokazują jednak, że to główny nurt.

W Stanach Zjednoczonych ponad 58 procent dorosłych deklaruje, że w ciągu roku szuka informacji zdrowotnych w internecie. W Europie robi to od 65 do ponad 80 procent użytkowników. Internet przestał więc być dodatkiem, a stał się pierwszym filtrem. Badania pokazują, że w większości przypadków to właśnie internet był pierwszym źródłem przy wyszukiwaniu informacji dotyczącym własnego zdrowia.

Ten moment jest kluczowy, bo to właśnie wtedy zapada decyzja, czy problem jest „na już”, czy „poczeka”. To tam pojawia się pierwsza interpretacja objawów, z którą pacjent później przychodzi do lekarza.

W Polsce ten mechanizm wygląda bardzo podobnie. Według badań PZU Zdrowie wyszukiwarki internetowe są jednym z głównych źródeł wiedzy o zdrowiu dla około 37–38 procent Polaków. I to jest jednym z największych problemów, z jakimi zmagają się lekarze –kiedy pacjent ma już gotową autodiagnozę, bardzo trudno jest go przekonać, że sprawy mają się inaczej.

Od Doktora Google do Doktora AI

Przez lata podstawowym narzędziem była wyszukiwarka. Oferowała listę linków, które trzeba było czytać, porównywać, myśleć. AI wprowadza tu jakościową zmianę. Zamiast linków pojawia się rozmowa. Zamiast fragmentów – spójna narracja. To budzi zaufanie znacznie większe zaufanie niż „czytane” źródła, a użytkownicy postrzegają informacje zdrowotne generowane przez AI jako użyteczne i pomocne. Tym samym forma odpowiedzi bardzo łatwo zaczyna być mylona z jej jakością, a spójność narracji z trafnością wniosku.

Do tej pory pytania o zdrowie padały w ramach zwykłej, „otwartej” rozmowy z czatem. ChatGPT Health jest próbą nadania temu zjawisku ram – i pod tym względem to na pewno zmiana na duży plus. Oddzielna przestrzeń, dodatkowe zabezpieczenia, deklaracje dotyczące prywatności – to wszystko ma sprawić, że odpowiedzi będą trafniejsze, a dane zabezpieczone.

Jednocześnie OpenAI bardzo ostrożnie ogranicza dostęp geograficzny. Brak dostępu na terytorium Unii Europejskiej nie jest przypadkiem. Dane zdrowotne to najbardziej wrażliwa kategoria danych osobowych, a europejskie regulacje, w tym RODO, nie zostawiają tu miejsca na eksperymenty.

To uspokaja, ale też każe zapytać – czy w takim razie lepiej jest jak jest, czy może jednak należałoby się lepiej przyjrzeć tym ograniczeniom? Innymi słowy – czy lepiej, by ludzie korzystali z Ai w pytaniach o zdrowie w takie sposób, jak robią to teraz, czy lepiej byłoby, by dostali do ręki narzędzie, które (przynajmniej technicznie) jest w stanie zapewnić im większe bezpieczeństwo danych i uzyskanych odpowiedzi?

Gdzie leży ryzyko

W zastosowaniach klinicznych AI potrafi działać bardzo dobrze. W europejskim programie przesiewowym raka piersi algorytmy zwiększyły wykrywalność nowotworów o 17,6 procent bez wzrostu liczby wyników fałszywie dodatnich. W Polsce rozwiązania oparte na AI były w 2024 roku wykorzystywane w ponad 13 procentach szpitali, głównie w radiologii.

To są jednak środowiska kontrolowane, z jasnym podziałem ról i odpowiedzialności. ChatGPT Health działa w zupełnie innej przestrzeni. Tam, gdzie emocje, niepewność i brak pełnych danych są normą. Najważniejsze pytanie nie dotyczy więc tego, czy AI się myli. Dotyczy tego, kiedy powstaje diagnoza. Jeśli pacjent przychodzi do gabinetu z ukształtowaną tezą dotyczącą własnego zdrowia, lekarz przestaje być pierwszym filtrem. Zaczyna pracę od korekty.

Z tego powodu instytucje zdrowia publicznego od lat przypominają o konieczności krytycznej oceny informacji medycznych. Ta zasada nie przestaje obowiązywać tylko dlatego, że zamiast strony internetowej mamy rozmowę z AI. Czat, nawet tak wyspecjalizowany jak ChatGPT Health, może pomóc zrozumieć, uporządkować informacje i przygotować się do wizyty. Nie powinien stać się miejscem, w którym zapada decyzja.

Teraz, kiedy do doktora Google dołączył doktor AI, obaj mają jeszcze większą siłę oddziaływania. I oby było jak najmniej przypadków, w których lekarz pozostanie źródłem decyzji o terapii, a nie jej korektorem. Albo – co jeszcze gorsze – żeby diagnozy stawiane przez cyber-lekarzy nie były jedynymi, po jakie sięgamy…

Od lat zajmuję się nowymi technologiami w biznesie, edukacji i codziennym życiu. W centrum mojej uwagi pozostaje człowiek – i to, by technologia wyrównywała szanse, zamiast tworzyć bariery.

Podziel się

Może Cię zainteresować