Prof. Tomasz Wojdacz: „Około dwóch lat temu nastąpił moment otrzeźwienia. Okazało się, że rewolucja AI w medycynie nie będzie taka łatwa, jak w innych dziedzinach. Zanim nastąpi, musimy jeszcze popracować nad metodologiami i zestandaryzować dane, których AI będzie używać”.
Sławomir Zagórski, OKO.press: AI w medycynie wkracza w cztery obszary. Pierwszy to badania naukowe. Drugi obszar to administracja medyczna. Trzeci – stawiający diagnozę i planujący leczenie lekarze. Wreszcie czwarty – pacjenci, którzy coraz częściej zamiast doktora Googla korzystają z doktora czataGPT.
Prof. Tomasz Wojdacz*: Te obszary się różnią. W tym pierwszym poza nadzorem komisji etycznej, która upewnia się, że badania są prowadzone zgodnie z zasadami etyki, nie ma żadnych regulacji, które ograniczałyby użycie metod badawczych. Każdy badacz może używać takich narzędzi, jakich chce. Liczy się wyłącznie jego wyobraźnia.
Od używania AI w badaniach naukowych nikt nie umrze, nikomu nie zostanie postawiona błędna diagnoza, która będzie wpływała na przebieg leczenia.
Robiąc badania naukowe, możemy popełniać błędy, a nawet są one częścią badań naukowych.
Badania molekularne w medycynie dziś generują ogromną ilość danych. Ich analiza jest poza możliwościami poznawczymi ludzkiego umysłu. Tylko użycie AI umożliwia prowadzenie badań naukowych wykorzystujących te dane.
Dlatego w badaniach naukowych jesteśmy świadkami prawdziwej rewolucji AI. Bez AI moja praca naukowa byłaby niemożliwa. Za przykład podam, że dzięki AI mój zespół właśnie opracował klasyfikator prawie 50 typów nowotworów oparty na setkach tysięcy biomarkerów epigenetycznych, o czym wcześniej mogliśmy wyłącznie pomarzyć.
Podkreśla Pan, że w tym zakresie nie ma żadnej regulacji. Panuje pełna swoboda twórcza.
Na tym przecież polegają badania naukowe. Jeśli nawet zrobimy w nich błąd, to trzeba go poprawić i na tym sprawa się zamyka. Taki błąd nie szkodzi bezpośrednio pacjentowi.
W klinice jest zupełnie inaczej. Tam błąd AI może oznaczać poważne konsekwencje zdrowotne dla pacjenta. Dlatego medyczne aplikacje AI podlegają regulacji na poziomie UE i często jeszcze regulacjom narodowym. Nie wolno nam użyć żadnej aplikacji bazującej na AI, ale i na innych metodach w praktyce klinicznej do momentu, gdy nie jest ona porządnie przetestowana i regulator dał zielone światło na jej wykorzystanie kliniczne.
Proszę zauważyć, że jeśli opracowany przez nas algorytm AI pomyli się i zdiagnozuje u kogoś nowotwór, gdy tego nowotworu nie ma, nic gorszego niż stres pacjenta, się nie stanie. Bardziej niebezpieczny jest odwrotny scenariusz. AI nie zdiagnozuje nowotworu u człowieka, który de facto jest chory, co gorsza, za kilka miesięcy nowotwór da przerzuty.
To obrazuje skalę problemu.
Tego, że musimy być w 100 proc. pewni, albo wiedzieć, z jakim zakresem błędu podpowiada nam sztuczna inteligencja, zanim zaczniemy używać jej w klinice.
Z radiologią, czyli interpretacją zdjęć radiologicznych przez AI, jest chyba mniej problemów?
To też wcale nie jest takie proste. Jeśli AI nie dopatrzy się zmiany na zdjęciu radiologicznym, tymczasem ona tam jest, kto weźmie za to odpowiedzialność?
Kogo oskarżyć za taki błąd? Firmę, która opracowała aplikację? Szpital? Na razie nie do końca wiadomo.
W obecnym systemie prawnym nie ma możliwości, by AI podejmowała samodzielnie decyzje, które mają konsekwencje dla zdrowia pacjenta. Może po nie sięgać lekarz, ale potem musi się podpisać pod wynikiem i tym samym wziąć odpowiedzialność za swoją interpretację.
Konsekwencją takiego stanu rzeczy jest to, że jak 15 lat temu na opis rezonansu magnetycznego czekało się 6 tygodni i dłużej, dziś też się czeka 6 tygodni i dłużej. Tu nie dokonała się więc żadna rewolucja.
Rzeczywiście na wyniki badań radiologicznych czeka się długo, ale czy w przypadku oceny tych obrazów nie przydają się dwie pary oczu? Czy AI nie może być jedną parą, podczas gdy drugą są oczy ludzkie?
Jeśli AI wyłącznie POMAGA lekarzowi w interpretacji obrazu, wszystko jest w porządku. Ale – powtarzam – to lekarz musi na końcu zdecydować, co widzi na zdjęciu.
Mówi się wiele o rewolucji AI w medycynie, ale ona jeszcze nie nastąpiła i moim zdaniem szybko nie nastąpi. Z początku wszyscy zachłysnęliśmy się perspektywą rewolucji AI, szczególnie widać to było w Stanach Zjednoczonych. Tamtejsza Agencja Żywności i Leków [Food and Drug Administration] zaczęła dopuszczać do użytku wiele aplikacji AI, głównie w radiologii.
Sprawy skomplikowały się mocno jakieś dwa lata temu, gdy ukazała się praca dowodząca, że ponad połowa tych aplikacji nigdy nie widziała rzeczywistych danych.
To zapaliło czerwone światło.
Zaskoczył mnie Pan. Wydawało mi się, że maszyna jest w stanie błyskawicznie obejrzeć 100 tys. obrazów i wyłowić co w tym jednym, konkretnym jest nie tak. A człowiek ma swoje ograniczenia, choć wiadomo, że niektórzy radiolodzy “mają oko” i potrafią znaleźć na zdjęciu coś, czego inny lekarz może nie zauważyć.
Tak czy inaczej, w obliczu braku radiologów, choćby pomocnicza rola sztucznej inteligencji w tej dziedzinie medycyny, wydaje się uzasadniona.
Tu chodzi nie tyle o to, by obejrzeć 100 tys. zdjęć, tylko na podstawie tych 100 tys. nauczyć się, jak coś powinno wyglądać, i potem skonfrontować z analizowanym aktualnie obrazem. Teoretycznie wygląda to bardzo pięknie. Praktyka jest jednak inna, ale zgadzam się z panem co do pomocniczej roli AI w radiologii.
Pana koledzy radiolodzy z niej korzystają?
Korzystają. Ale AI wciąż tylko im podpowiada. I na tym jej rola – przynajmniej na razie – się kończy.
Wspomniana przez Pana publikacja miała poważne konsekwencje?
Jak najbardziej. Zmieniło się podejście całego środowiska do aplikacji sztucznej inteligencji w medycynie. Raptem zaczęliśmy kwestionować to, co wcześniej braliśmy za pewnik. Zdaliśmy sobie sprawę, że sztuczna inteligencja nie zagości w klinice z dnia na dzień, że potrzebne są regulacje. Pojawiły się nawet głosy, że nie wiadomo, czy kiedykolwiek AI zrewolucjonizuje medycynę kliniczną.
Ja jestem optymistą i myślę, że to nastąpi.
Niemniej fakty są takie, że aplikacji AI poza radiologią, jest dziś bardzo niewiele.
Dlaczego tak się dzieje? Generalnie cały problem jest w danych. W strukturze i formacie danych, którymi “karmimy” lub jak kto woli na których “uczymy” AI. Różne szpitale stosują różne standardy w ramach tych danych. Jest wciąż wiele „nieporządku” w tym, jak dane są archiwizowane. A jeśli AI będzie używać danych słabej jakości, to i odda słaby wynik.
Dlatego dziś mówimy o kryzysie reprodukowalności danych (ang. reproducibility crisis). Upraszczając, wszystko zaczęło się od tego, że okazało się, że algorytm oparty na danych z jednego szpitala, nie dawał nam takiego samego wyniku, gdy użyliśmy danych z innego szpitala.
To był ten moment otrzeźwienia, że musimy wypracować metody, zestandaryzować dane i dopiero wtedy zacznie się era sztucznej inteligencji w medycynie. Na razie jesteśmy na poziomie dyskusji. Identyfikowania tego, gdzie jest problem i co z nim zrobić.
Ostatnio przeczytałem o konkretnej próbie wykorzystania AI w wykrywaniu sepsy w szpitalu uniwersyteckim w Lozannie. Wdrożono tam Learning Health System wspierany przez AI. Zastosowany algorytm analizował dane pacjentów co 6 godzin, identyfikując przypadki sepsy. Dzięki systemowi udało się istotnie obniżyć spadek śmiertelności szpitalnej oraz 90-dniowej od przyjęcia do szpitala. Przyzna pan, że brzmi to poważnie?
Tak, ale to przykład innej aplikacji sztucznej inteligencji w medycynie. Algorytm ten nie został zaprojektowany do podejmowania decyzji, lecz jedynie do oceny ryzyka wystąpienia sepsy u pacjenta na podstawie danych zbieranych w szpitalu. Po ocenie ryzyka pacjenci zaklasyfikowani przez algorytm jako osoby wysokiego ryzyka są objęci szczególną opieką i monitorowaniem w celu szybkiej reakcji, jeśli sepsa wystąpi.
Można to porównać do zegarka monitorującego rytm serca. On również nie stawia diagnozy, ale gdy wykryje nieprawidłowości, ostrzega użytkownika i zaleca konsultację z kardiologiem. To bardzo podobny typ zastosowania sztucznej inteligencji.
Sepsa to groźna choroba. Na drugim biegunie są powszechne dolegliwości jak wirusowa infekcja dróg oddechowych. Czy w ich przypadku sztuczna inteligencja nie mogłaby zastąpić lekarza POZ, by miał czas zająć się ciężej chorymi pacjentami?
Teoretycznie tak, ale znowu wracamy do problemu odpowiedzialności za diagnozę. Kto miałby wziąć za to odpowiedzialność, nawet jeśli chodzi o diagnozę prostej infekcji wirusowej? A co jeśli ból gardła, który wygląda jak infekcja wirusowa, jest objawem nowotworu?
Z AI coraz częściej korzystają pacjenci. Ostatnio miałem drobny zabieg, po którym pojawiły się komplikacje. Radziłem się wielokrotnie chataGPT, co robić, jakie leki ewentualnie brać, jakie badania wykonać. Muszę przyznać, że byłem pozytywnie zaskoczony jakością odpowiedzi.
Ale to, o czym ja opowiadałem, nie ma nic wspólnego z tym, co pan zrobił. Bo pan nakarmił chata bardzo precyzyjną informacją.
Nasz główny kłopot z AI w medycynie polega – jak mówiłem – na karmieniu jej nie precyzyjnymi informacjami do uczenia się.
Pana niepokoi radzenie się pacjentów chataGPT w kwestiach zdrowia?
Owszem. Bo chatGPT zawsze odpowie, ale jego odpowiedź jest zależna od tego, jakimi danymi pytający go „nakarmi”. Jak Pan myśli, do jakiego stopnia pacjent jest w stanie krytycznie podejść do uzyskanej informacji bez wiedzy medycznej i „nakarmić” czhtaGPT na tyle precyzyjnymi danymi, by uzyskać wiarygodną odpowiedź?
Wiadomo, że AI konfabuluje, ale są na to sposoby. Podczas jednego z medycznych kongresów usłyszałem, by dopytywać się chata “czy jest pewien?” I on wtedy powtórnie analizuje nasze pytanie.
Ale przecież nie możemy sprowadzić medycyny do prób i błędów!
To fajne ćwiczenie, fajny sposób spędzenia czasu, ale w medycynie nie ma na to miejsca.
ChatGPT jest natomiast wielce przydatny w mojej pracy, jeśli chodzi o przegląd literatury. Będąc naukowcem muszę czytać to, co inni naukowcy w mojej dziedzinie publikują. A że publikują bardzo dużo, tu chatGPT stał się dla mnie prawdziwą rewolucją. Korzystanie z AI jako narzędzia do przeglądu literatury astronomicznie przyspieszyło moją pracę. Raptem mogę przeglądnąć masę literatury i w ciągu kilku minut wyciągnąć potrzebne informacje. Nigdy wcześniej nie byłem w stanie przeglądać tyle literatury w tak krótkim czasie.
Tylko jest jedna ważna rzecz w używaniu przeze mnie chataGPT do przeglądania literatury. Ja wiem, czego szukam i z moim doświadczeniem krytycznie podchodzę do uzyskanych danych. Wiem też, że gdy chat cokolwiek zmyśli, ja to wyłapię.
Proszę mi wierzyć, że nawet w problemach stricte naukowych, czasami czat zaczyna opowiadać takie głupoty, że trudno w to uwierzyć. Ale student, który dopiero się uczy, nie jest w stanie krytycznie ocenić tego, co dostaje z chatuGPT. A że brzmi to często bardzo przekonywująco, “kupi” on argumentację czatu. I tu zaczyna się problem.
Rozumiem, że jest pan mocno sceptyczny wobec używania chataGPT do poszukiwania informacji o własnym zdrowiu.
Rzeczywiście jestem sceptyczny. Ale ja należę do tych, którzy nie czytają o tym, co im dolega, tylko pytam o to lekarzy. W zeszłym roku zachorowałem na nowotwór i gdy usłyszałem diagnozę, nawet nie spojrzałem do sieci.
Kiedyś zajmowałem się tym typem nowotworu, ale po diagnozie nie odświeżyłem swojej wiedzy. Mam bardzo dobrych lekarzy, którym ufam. I dochodzę do wniosku: “Po co mi to wiedzieć?” Po to są lekarze, żeby wiedzieli.
Niemniej to jest jeden typ osobowości. Inni reagują inaczej i chcą o swojej chorobie wiedzieć jak najwięcej.
Tak długo, jak zdajemy sobie sprawę z ograniczeń, jakie mają informacje, które pozyskujemy z sieci, jak długo wiemy, że musimy zweryfikować uzyskane informacje z lekarzem i nie projektujemy sobie życia, a nie daj Boże leczenia, na podstawie tego, co otrzymujemy z internetu i z AI, nie widzę zagrożenia.
Jeśli kogoś uspokaja znajomość statystyk w jego chorobie, dlaczego ma tego nie wiedzieć? Ale w momencie, gdy ktoś zaczyna na podstawie sugestii z sieci podejmować samodzielne decyzje, to jestem bardzo sceptyczny.
Powiedzmy słowo o AI w administracji medycznej.
Tu rzeczywiście AI bardzo się przydaje. Chociażby w porządkowaniu dokumentacji medycznej, w administrowaniu szpitalnym, w administrowaniu kartami pacjentów.
Opowiadał mi Pan, że widział to na Litwie. To się dzieje też w polskich szpitalach?
Tak. Nasze szpitale dobrze sobie z tym radzą. Nie mamy wprawdzie scentralizowanego systemu. Krokami w kierunku harmonizacji mają być regionalne centra medycyny cyfrowej. Jedno z takich centrów budujemy tutaj, w Szczecinie.
Ale ta harmonizacja danych potrwa, ponieważ jesteśmy dużym krajem.
Wybiegnijmy w przyszłość. Przyjmijmy, że rewolucja, o której rozmawiamy, dokona się też w medycynie klinicznej. Czego AI na pewno nie będzie w stanie zrobić w kwestii leczenia ludzi?
Trudno powiedzieć.
Bo o wielu rzeczach myśleliśmy, że się nigdy nie zautomatyzują, a kilka lat później okazywało się, że nawet nie wiemy, że one są zautomatyzowane.
Szczerze powiedziawszy, nie wiem, czego sztuczna inteligencja nie będzie w stanie zrobić. Teoretycznie w medycynie klinicznej, w całym procesie diagnozy i opiekowania się pacjentem, leczenia chorób, precyzyjność lekarza jest wprost proporcjonalna do liczby pacjentów, których diagnozował w czasie swojej kariery.
I tak samo jest z AI, tylko że AI może przeanalizować ogromną liczbę przypadków w bardzo krótkim czasie. AI przyspieszy i zautomatyzuje pracę kliniczną – to na pewno.
No ale chirurgów raczej nie zastąpi. Może pomagać w operacjach (np. poprzez roboty czy instrumenty, które pomagają chirurgowi), ale chirurga całkiem nie wyręczy, choćby dlatego, że każde ciało ludzkie jest inne. Anatomicznie ludzie wyglądają tak samo do momentu, gdy nie zaczniemy ich studiować jednego po drugim. I wyuczenie AI tych różnic będzie bardzo trudne, choć – kto wie – może z czasem się uda.
Na koniec proszę jeszcze wspomnieć o regulacjach używania AI w praktyce klinicznej.
Kluczowymi regulacjami, jakim podlega AI w medycynie w Unii Europejskiej są: MDR (Medical Device Regulation), IVDR (In Vitro Diagnostic Regulation), RODO (GDPR) oraz AI Act.
MDR i IVDR regulują bezpieczeństwo używania wyrobów medycznych i testów diagnostycznych, w tym tych, których komponentami są aplikacje AI.
RODO nakłada rygorystyczne zasady przetwarzania danych medycznych, także tych używanych do trenowania algorytmów AI.
AI Act generalnie reguluje rozwój i używanie sztucznej inteligencji w Europie i oparty jest na ocenie ryzyka zastosowania danego rozwiązania AI, a systemy stosowane w ochronie zdrowia są uznawane za systemy wysokiego ryzyka.
Generalnie europejski model konsekwentnie stawia pacjenta i jego prawa jako te podlegające najwyższej ochronie.
Silna ochrona danych jest w interesie pacjentów, ale jednocześnie utrudnia dostęp do danych potrzebnych do rozwoju AI.
Stoimy więc w Europie przed koniecznością znalezienia równowagi między innowacją a ochroną prywatności. Choć obecnie dość głośno słychać, że istnieje ryzyko, że UE pozostanie w tyle za bardziej liberalnymi rynkami jak USA czy Chiny. Moim zdaniem regulacje te wciąż będą ewoluować i pewnie będą zmieniane w kontekście wyzwań, jakie stwarzają dla rozwoju AI.
* Dr hab. n. med. Tomasz K. Wojdacz jest profesorem Pomorskiego Uniwersytetu Medycznego w Szczecinie, kierownikiem Samodzielnej Pracowni Epigenetyki Klinicznej PUM, prezesem i współzałożycielem Międzynarodowego Towarzystwa Epigenetyki Molekularnej i Klinicznej.
Biolog, dziennikarz. Zrobił doktorat na UW, uczył biologii studentów w Algierii. 20 lat spędził w „Gazecie Wyborczej”. Współzakładał tam dział nauki i wypromował wielu dziennikarzy naukowych. Pracował też m.in. w Ambasadzie RP w Waszyngtonie, zajmując się współpracą naukową i kulturalną między Stanami a Polską. W OKO.press pisze głównie o systemie ochrony zdrowia.
Biolog, dziennikarz. Zrobił doktorat na UW, uczył biologii studentów w Algierii. 20 lat spędził w „Gazecie Wyborczej”. Współzakładał tam dział nauki i wypromował wielu dziennikarzy naukowych. Pracował też m.in. w Ambasadzie RP w Waszyngtonie, zajmując się współpracą naukową i kulturalną między Stanami a Polską. W OKO.press pisze głównie o systemie ochrony zdrowia.
Komentarze