Wprowadzenie
Rozwój sztucznej inteligencji (SI) w medycynie budzi wielkie nadzieje, ale i obawy. W diagnostyce medycznej algorytmy uczące się na ogromnych zbiorach danych potrafią wykonywać zadania poznawcze typowo zastrzeżone dla ludzi – od rozpoznawania obrazów po formułowanie zaleceń terapeutycznych. Pytanie, czy SI w diagnostyce oznacza rewolucyjne wsparcie lekarza, czy też stanowi zagrożenie dla jego roli, stało się przedmiotem intensywnej debaty. Niniejszy raport przedstawia historyczne tło wdrażania SI w diagnostyce, analizuje argumenty „za” i „przeciw” poparte literaturą naukową oraz omawia ramy regulacyjne, aspekty ekonomiczne, etyczne i wpływ na zawód lekarza – ze szczególnym uwzględnieniem kontekstu Unii Europejskiej i Polski.
Tło historyczne wdrażania SI w diagnostyce
Obrazowanie medyczne: Pierwsze koncepcje „myślących” maszyn pojawiły się już w latach 40. i 50. XX wieku wraz z abstrakcyjnymi modelami maszyn uczących się. W medycynie zastosowania SI rozwijały się stopniowo. W latach 70. powstały eksperckie systemy diagnostyczne wspomagające decyzje kliniczne, a już w latach 80. i 90. zaczęto wykorzystywać komputery do analizy obrazów medycznych. Pojęcie computer-aided diagnosis (CAD) odnosi się właśnie do komputerowego wspomagania interpretacji wyników diagnostycznych, zwłaszcza obrazów – np. wykrywania zmian patologicznych na rentgenogramach czy mammogramach. W 1960 r. opublikowano pionierskie prace nad sieciami neuronowymi, jednak dopiero rozwój mocy obliczeniowej (GPU) i cyfrowych baz danych około roku 2010 tchnął nowe życie w medyczne SI. W radiologii już w latach 90. pojawiły się komercyjne systemy CAD do wykrywania np. guzków w płucach czy zmian w mammografii. Obecnie deep learning (głębokie sieci neuronowe) zrewolucjonizował analizę obrazów – algorytmy potrafią automatycznie wykrywać, segmentować i klasyfikować zmiany nowotworowe na obrazach z dokładnością zbliżoną do człowieka. Przykładowo, najnowsze modele oparte o konwolucyjne sieci neuronowe osiągają czułość i swoistość porównywalną z radiologami w zadaniach takich jak wykrywanie zmian na zdjęciach RTG klatki piersiowej czy skanach TK.
Diagnostyka laboratoryjna: Równolegle SI znalazła zastosowanie w analizie danych laboratoryjnych. Już pierwsze systemy eksperckie (np. MYCIN w latach 70.) potrafiły na podstawie objawów i wyników badań sugerować diagnozy zakażeń i rekomendować antybiotyki. W kolejnych dekadach rozwijano algorytmy do interpretacji wyników testów diagnostycznych – np. w analizatorach biochemicznych czy w ocenie zapisu EKG. Współcześnie laboratoria wykorzystują uczenie maszynowe do wychwytywania anomalii w dużych zbiorach wyników i przewidywania zdarzeń klinicznych. Przykładowo, machine learning znajduje zastosowanie w mikrobiologii klinicznej do identyfikacji patogenów na podstawie widm mas spektrometrycznych czy sekwencji genomowych. W patologii cyfrowej z kolei sieci neuronowe analizują skany preparatów histopatologicznych, wspomagając wykrywanie zmian nowotworowych – metaanaliza 25 badań wykazała, że algorytmy SI osiągają średnio ponad 90% czułości w rozpoznawaniu raka na preparatach, dorównując doświadczonym patologom. Mimo imponujących osiągnięć, integracja SI z rutyną labów medycznych wymaga standaryzacji i walidacji na szeroką skalę.
Kliniczne systemy wspomagania decyzji: Rozwinięciem systemów eksperckich są Clinical Decision Support Systems (CDSS), czyli komputerowe systemy wspomagania decyzji klinicznych. Ich zadaniem jest dostarczać lekarzowi spersonalizowane informacje i rekomendacje na podstawie bazy wiedzy medycznej i danych o pacjencie. Już w latach 80. wdrażano proste CDSS (np. system HELP w USA) generujące alerty o interakcjach leków czy przypomnienia o profilaktyce. Współczesne CDSS są najczęściej zintegrowane z elektroniczną dokumentacją pacjenta i wykorzystują zaawansowane algorytmy (w tym SI) do analiz, np. przewidywania ryzyka powikłań, sugerowania diagnoz różnicowych czy dopasowywania terapii. Przykładowo, w onkologii systemy wspomagane SI potrafią na podstawie cech guza i profilu molekularnego zaproponować spersonalizowane schematy leczenia, co ilustruje trend w kierunku medycyny personalizowanej. Mimo szybkiego postępu, nadal bada się wpływ CDSS na wyniki leczenia i workflow – niektóre badania pokazują poprawę jakości opieki dzięki CDSS, inne wskazują na ryzyko „alarmowego zmęczenia” lekarzy zbyt częstymi podpowiedziami systemu.
Wyjaśnialna SI (XAI): Dynamiczny rozwój „czarnych skrzynek” SI (szczególnie głębokich sieci neuronowych) sprawił, że już na początku ich wdrażania dostrzeżono potrzebę wyjaśniania decyzji algorytmów. Termin explainable AI (XAI) oznacza podejścia i narzędzia, które czynią działanie modelu bardziej zrozumiałym dla człowieka. Innymi słowy, XAI ma wyjaśnić na jakiej podstawie SI doszła do danej diagnozy czy predykcji. Przykładem są tzw. mapy cieplne nakładane na obraz medyczny, wskazujące, które regiony najbardziej wpłynęły na decyzję algorytmu przy rozpoznaniu zmiany. XAI jest kluczowe dla budowania zaufania – zarówno lekarzy, jak i pacjentów – do systemów SI, gdyż zwiększa transparentność procesu diagnostycznego. Pojęcie to zyskało na znaczeniu około 2017 roku, a dziś wymóg „wyjaśnialności” modeli pojawia się w wytycznych regulacyjnych (np. EU AI Act przewiduje konieczność udostępniania informacji o zasadach działania algorytmu w medycynie). Mimo postępów, pełne otwarcie „czarnej skrzynki” pozostaje wyzwaniem – wiele metod XAI opiera się na przybliżeniach działania modelu, co nie zawsze daje prawdziwą przejrzystość.
Podsumowując tło historyczne – SI w diagnostyce ma już kilkudziesięcioletnią historię, od eksperckich systemów regułowych po dzisiejsze głębokie sieci uczące się. W obszarach takich jak diagnostyka obrazowa i laboratoryjna SI przeszła drogę od ciekawostki naukowej do realnie stosowanych narzędzi. Dalsze sekcje raportu skupią się na ocenie, jakie korzyści te technologie przynoszą (rewolucja?) oraz jakie rodzą zagrożenia (utrata roli lekarza?).
Korzyści z zastosowania SI w diagnostyce (argumenty „za”)
Zwiększenie dokładności i skuteczności diagnozy: Jednym z najczęściej podnoszonych atutów SI jest jej zdolność do bardzo precyzyjnej analizy danych diagnostycznych. Algorytmy potrafią dostrzec subtelne wzorce niewidoczne dla ludzkiego oka, co może przekładać się na wcześniejsze i trafniejsze rozpoznanie chorób. Metaanaliza opublikowana w The Lancet Digital Health wykazała, że głębokie sieci neuronowe osiągają porównywalną skuteczność diagnostyczną do lekarzy specjalistów w klasyfikowaniu obrazów medycznych. W przeglądzie tym stwierdzono, że w grupie nielicznych najwyższej jakości badań, czułość i swoistość algorytmów SI w wykrywaniu chorób (np. nowotworów czy zmian okulistycznych) była statystycznie nie do odróżnienia od wyników klinicystów. Co ważne, SI nie przewyższyła jednak znacząco lekarzy – raczej dorównała im, obalając pewne sensacyjne twierdzenia o „superhuman” możliwościach, ale potwierdzając jej przydatność jako narzędzia na poziomie eksperta. W konkretnych dziedzinach odnotowano imponujące wyniki: np. w dermatologii przegląd 31 badań nad rozpoznawaniem zmian skórnych z dermoskopii wykazał, że w ~61% badań algorytmy SI przewyższyły diagnostycznie klinicystów, w ~29% były porównywalne, a tylko w ~10% gorsze. Gdy zaś lekarze korzystali ze wsparcia AI (tzw. inteligencja wspomagająca), we wszystkich analizowanych pracach następowała poprawa trafności diagnostycznej – szczególnie u mniej doświadczonych lekarzy. Przykładem przełomowego badania jest prospektywna próba kliniczna ze Szwecji (Dembrower i wsp. 2023) dotycząca skriningu raka piersi: wykazano w niej, że zastąpienie jednego z dwóch radiologów czytających mammografię przez AI nie obniża skuteczności wykrywania nowotworów (wynik nie gorszy niż standard), a nawet pozwoliło wykryć o 4% więcej raków. W badaniu tym w grupie 55 581 przebadanych kobiet odsetek wykrytych nowotworów wyniósł 0,5% przy wspólnej ocenie radiologa i SI vs 0,4% przy podwójnej ocenie dwóch radiologów (różnica względna 1,04, 95% CI 1,00–1,09). Jednocześnie samodzielna ocena AI miała skuteczność zbliżoną do dwóch radiologów (0,4% wykryć, 0,98, 95% CI 0,93–1,04), co pokazuje, że w określonych zadaniach diagnostycznych SI może osiągać wydajność specjalisty. Te dane sugerują, że umiejętne wdrożenie SI może poprawić czułość wykrywania chorób (np. w skriningu) lub przynajmniej utrzymać ją na dotychczasowym poziomie przy mniejszym zaangażowaniu czasu lekarza.
Skrócenie czasu i zwiększenie efektywności diagnostyki: SI działa z prędkością komputera – potrafi w ułamku sekundy przeanalizować dane, co dla człowieka oznaczałoby długie minuty lub godziny pracy. Dzięki temu wykorzystanie SI może znacząco odciążyć proces diagnostyczny czasowo. W radiologii odnotowano skrócenie czasu interpretacji badań obrazowych przy asyście AI. Przykładowo, we wspomaganej przez AI analizie zdjęć rentgenowskich klatki piersiowej czas odczytu skrócił się średnio o ok. 10% (13,3 s vs 14,8 s) na jedno badanie w porównaniu do standardowej pracy radiologa. Inne badanie wykazało, że automatycznie generowany przez SI szkic opisu badania pozwolił radiologom zaoszczędzić nawet 42% czasu potrzebnego na pełny opis zdjęcia. W praktyce klinicznej oznacza to możliwość zinterpretowania większej liczby badań w tym samym czasie – co ma znaczenie przy rosnącej liczbie badań obrazowych zlecanych przez lekarzy. W dziedzinach takich jak patologia, gdzie ocena jednej preparatu przez człowieka może zająć kilka minut, SI po wytrenowaniu może przetwarzać obrazy mikroskopowe niemal natychmiast, wskazując podejrzane obszary do weryfikacji. Redukcja opóźnień diagnostycznych jest korzystna nie tylko ekonomicznie, ale i klinicznie – szybsze postawienie diagnozy pozwala wcześniej rozpocząć leczenie, co często poprawia rokowanie pacjenta. Ponadto SI może pracować 24/7 bez zmęczenia, co bywa wykorzystywane np. w trybie triage – algorytm natychmiast ocenia napływające badania (np. TK głowy w kierunku udaru) i alarmuje dyżurującego lekarza w razie wykrycia patologii, zanim ten zdążyłby sam przejrzeć obraz. To skraca czas reakcji w stanach nagłych. Krótsze czasy pracy specjalistów nad rutynowymi zadaniami przekładają się też na zwiększenie przepustowości systemu ochrony zdrowia – ci sami radiolodzy czy patolodzy mogą obsłużyć więcej pacjentów w jednostce czasu, co jest istotne w obliczu niedoborów kadry medycznej.
Personalizacja diagnostyki i leczenia: Zaawansowane algorytmy SI potrafią integrować różnorodne źródła danych medycznych – od obrazów, przez wyniki badań laboratoryjnych, po dane genetyczne i wywiad – aby tworzyć bardziej spersonalizowane modele diagnostyczne i prognostyczne. W onkologii przykładem jest stosowanie SI do analizy profilu genomowego guza i cech klinicznych pacjenta w celu przewidywania odpowiedzi na określone terapie. Takie podejście wpisuje się w paradygmat medycyny precyzyjnej, gdzie leczenie jest dostosowane do indywidualnych cech chorego. SI może identyfikować nietypowe korelacje: np. wskazać, że pacjent z określonym wzorcem wyników laboratoryjnych i objawów ma wysokie ryzyko rzadkiej choroby metabolicznej, co prowadzi do celowanego testu potwierdzającego diagnozę. Innym przykładem jest kardiologia – algorytmy uczące się na sygnałach EKG potrafią wykryć subtelne zmiany wskazujące na genetycznie uwarunkowane kardiomiopatie, zanim pojawią się objawy kliniczne. W okulistyce z kolei SI analizują obrazy dna oka i na ich podstawie prognozują 5-10 letnie ryzyko zawału czy udaru, łącząc cechy naczyniowe z modelami epidemiologicznymi. Takie możliwości wykraczają poza tradycyjną diagnostykę – lekarz, dysponując tym narzędziem, może wdrożyć profilaktykę u pacjenta wysokiego ryzyka. Krótko mówiąc, SI umożliwia przeniesienie większego ciężaru z medycyny reaktywnej (leczenie gdy choroba już jest jawna) na proaktywną i prewencyjną, poprzez wcześniejsze wychwytywanie sygnałów ostrzegawczych choroby i dostosowanie do nich postępowania.
Odciążenie lekarzy i usprawnienie systemu opieki: Wprowadzenie SI do diagnostyki może zmniejszyć obciążenie pracą specjalistów, pozwalając im skupić się na zadaniach wymagających stricte ludzkich kompetencji. Powtarzalne, żmudne czynności – jak przegląd tysięcy zdjęć w skriningu onkologicznym czy porównywanie kolejnych wyników badań pacjenta – mogą zostać w dużej mierze zautomatyzowane. Według raportu AMA 2023, już 2 na 3 lekarzy w USA deklaruje wykorzystywanie jakiejś formy AI/automatyzacji w praktyce, najczęściej do redukcji obciążeń administracyjnych (np. automatycznego wprowadzania danych, przygotowania dokumentacji). Cyfrowi asystenci (tzw. digital scribes) oparte o AI potrafią transkrybować rozmowę z pacjentem i wypełniać dokumentację, oszczędzając lekarzowi nawet do 2/3 czasu poświęcanego dotąd na wpisy w kartotece. W jednym z ośrodków onkologicznych wdrożenie prototypu takiego asystenta skróciło czas dokumentowania wizyty o kilkanaście minut, co pozwoliło lekarzom przyjąć więcej chorych i poprawiło ich zadowolenie z pracy. Innym obszarem odciążenia jest triage – np. w intensywnej terapii system SI może stale monitorować parametry życiowe dziesiątek pacjentów i alarmować przy odchyleniach, zamiast polegać wyłącznie na czujności personelu. Badanie z OIOM wykazało, że zastosowanie AI do przewidywania pogorszenia stanu pacjenta (np. wstrząsu septycznego) obniżyło stres personelu i poprawiło warunki pracy pielęgniarek i lekarzy, zmniejszając częstość nieprzewidzianych kryzysów. Co więcej, SI może poprawić dostęp do opieki tam, gdzie brakuje specjalistów. Przykładowo, system Google’s DeepMind do wykrywania retinopatii cukrzycowej umożliwił przeprowadzenie badań przesiewowych oczu tysięcy diabetyków w Indiach i Afryce na obszarach bez okulistów – zdjęcia dna oka były analizowane przez AI, a do lekarza trafiały tylko przypadki pozytywne. Takie rozwiązanie potencjalnie zmniejsza nierówności w dostępie do diagnostyki. Podsumowując, SI odpowiednio włączona w system ochrony zdrowia może zwiększyć jego wydajność (większa liczba pacjentów zdiagnozowanych w tym samym czasie), efektywność (mniej błędów i duplikacji badań) oraz zmniejszyć wypalenie zawodowe kadr (mniej czasu na biurokrację, więcej na faktyczne leczenie).
Wyzwania i zagrożenia związane z SI w diagnostyce (argumenty „przeciw”)
Ryzyko błędów systematycznych i biasów: Choć SI potrafi być bardzo dokładna, jej błędy mogą być podstępne i systematyczne. Algorytm raz wytrenowany na niepełnych lub stronniczych danych będzie konsekwentnie popełniał ten sam błąd w odniesieniu do wielu pacjentów – w odróżnieniu od ludzi, których pomyłki mają często charakter losowy. Istnieje poważne zagrożenie, że SI nauczy się niepożądanych wzorców obecnych w danych uczących. Na przykład głośno dyskutowano przypadek algorytmu oceniajacego ryzyko powikłań, który przyznał czarnoskórym pacjentom niższe ryzyko tylko dlatego, że miał zakodowane niższe wydatki na zdrowie w tej populacji (czyli uboczny wskaźnik gorszego dostępu do opieki) – w efekcie kierował mniej osób czarnoskórych do programów intensywnej opieki, utrwalając dyskryminację. W kontekście diagnostyki, jeżeli model uczono głównie na danych od jednego typu pacjentów (np. głównie mężczyzn europejskich), to jego skuteczność na innych grupach (np. kobietach azjatyckich) może być dużo gorsza. Takie błędy generalizacji są trudne do wychwycenia, dopóki algorytm nie zacznie działać w realnym świecie. W literaturze opisano np. algorytmy do rozpoznawania zapalenia płuc na RTG płuc, które faktycznie nauczyły się rozpoznawać… typ aparatu rentgenowskiego (przenośny vs stacjonarny) jako pośredni wskaźnik ciężkości pacjenta, co poza warunkami jednego szpitala zupełnie zawiodło. Bias (stronniczość) algorytmów SI może dotyczyć także płci, wieku, czy czynników etnicznych – np. systemy do analizy zdjęć skóry osiągają dużo gorsze wyniki dla osób o ciemnej karnacji, jeśli w zbiorze uczącym dominowały zdjęcia jasnej skóry. Konsekwencją niezaadresowanego biasu mogą być nierówności w jakości opieki: pewne grupy pacjentów będą częściej źle diagnozowane przez SI. Ponadto, model może wydawać się działać świetnie (wysokie metryki ogólne), a jednak popełniać poważne błędy w określonych podgrupach – co trudno wykryć standardowymi testami. Z tych powodów podkreśla się konieczność rygorystycznej walidacji algorytmów na reprezentatywnych, zewnętrznych zbiorach danych, zanim dopuści się je do rutynowego użytku. Niestety, analiza ponad 20 500 publikacji z AI w diagnostyce wykazała, że mniej niż 1% z nich miało dostatecznie solidny protokół i niezależną walidację, by w pełni wierzyć podawanym wynikom. To oznacza, że rzeczywista moc diagnostyczna wielu proponowanych algorytmów jest niepewna i może ujawnić swoje słabości dopiero po wdrożeniu. Taka sytuacja stwarza ryzyko wyrządzenia szkód pacjentom zanim błąd zostanie wykryty. Dlatego często postulowane jest utrzymywanie człowieka „w pętli” (ang. human-in-the-loop) – czyli nadzór lekarza nad decyzjami SI. Jednak i tu pojawia się automation bias, czyli tendencja do nadmiernego ufania automatycznym sugestiom. Lekarze mogą z czasem zatracić czujność i polegać na SI nawet w wątpliwych przypadkach, co opisano w symulacjach decyzyjnych: obecność podpowiedzi AI potrafi skłonić użytkownika do ignorowania własnych obserwacji, prowadząc do powielenia błędu AI. Reasumując, dopóki SI nie będzie perfekcyjna (a nigdy nie będzie), jej błędy mogą dotknąć wielu pacjentów naraz, jeśli nie zostaną odpowiednio wcześnie wykryte i ograniczone.

Problemy z brakiem transparentności („czarna skrzynka”): Większość nowoczesnych modeli SI, zwłaszcza opartych na głębokim uczeniu, ma charakter silnie złożony i nieliniowy, co sprawia, że trudno zrozumieć, jak osiągają swoje wyniki. Dla lekarza otrzymującego sugestię diagnozy od algorytmu frustrujący może być brak możliwości docieczenia, dlaczego SI postawiła taką a nie inną hipotezę. Ten efekt „czarnej skrzynki” podkopuje zaufanie do systemu. Lekarz, zgodnie ze swoją tradycyjną rolą, chce mieć uzasadnienie diagnozy – jeśli SI go nie zapewnia, może nie chcieć z niej korzystać, albo (co gorsza) zaufać jej ślepo bez weryfikacji. Brak wyjaśnialności rodzi też dylematy etyczne i prawne: jak wyjaśnić pacjentowi decyzję terapeutyczną, jeśli była oparta o wskazówkę SI, której mechanizmu lekarz sam nie pojmuje? Artykuł 22 unijnego RODO (GDPR) daje osobie prawo niepodlegania decyzji opierającej się wyłącznie na automatycznym przetwarzaniu, jeśli rodzi ona istotne skutki prawne lub dotyczące tej osoby. Diagnoza medyczna może być interpretowana jako taki istotny skutek – co oznacza, że w UE pacjent mógłby zakwestionować decyzję podjętą wyłącznie przez AI bez udziału człowieka. Aby spełnić wymogi świadomej zgody i prawa pacjenta do informacji, klinicyści powinni móc przedstawić zrozumiałe uzasadnienie decyzji diagnostycznej. Gdy SI działa jak czarna skrzynka, wymaganie to jest trudne do spełnienia. Choć rozwijane są metody XAI (jak wspomniano wcześniej), wielu autorów ostrzega, że obecne techniki wyjaśniające dają tylko przybliżony wgląd w działanie modelu i mogą nie wystarczyć do pełnego odzyskania zaufania. W rezultacie brak transparentności stawia lekarza w niekomfortowej pozycji – ma zaufać narzędziu, którego nie rozumie, i wziąć odpowiedzialność za jego wynik. To z kolei prowadzi do ostrożności lub wręcz oporu we wdrażaniu AI. W ankiecie międzynarodowej z 2023 r. aż 47% lekarzy wskazało brak przejrzystości i nadzoru jako główną barierę zaufania do systemów AI w ochronie zdrowia. Rozwiązaniem może być ścisłe certyfikowanie i testowanie algorytmów oraz dostarczanie klinicystom pewnych miar pewności wyniku (np. prawdopodobieństwo, z jakim AI ocenia diagnozę) zamiast czystej „wyroczni”. Niemniej, dopóki AI pozostaje częściowo nieprzenikniona, dopóty wielu lekarzy i pacjentów będzie ją traktować z uzasadnioną rezerwą.
Niejasność co do odpowiedzialności prawnej: Kluczowym wyzwaniem jest ustalenie, kto ponosi odpowiedzialność za ewentualny błąd diagnostyczny SI. Tradycyjnie to lekarz odpowiada za diagnozę – ale jeśli polegał na rekomendacji zatwierdzonego systemu AI, który okazał się wadliwy, czy wina leży po stronie lekarza, producenta oprogramowania, czy może szpitala, który wdrożył narzędzie? Obecne prawo nie nadąża w pełni za tym problemem. Analiza systemów prawnych wskazuje kilka możliwych podejść: (1) traktowanie AI jak każdego innego wyrobu medycznego, co kierowałoby roszczenia w stronę producenta (na zasadzie odpowiedzialności produktowej), (2) uznanie lekarza za tzw. „świadomego pośrednika” (learned intermediary), który mimo użycia narzędzia ma ostatecznie ocenić jego wynik – wtedy odpowiedzialność spada na lekarza lub placówkę (np. za zaniedbanie nadzoru), (3) stworzenie nowego modelu odpowiedzialności, np. specjalnego funduszu kompensacyjnego na wzór funduszu odszkodowań za niepożądane odczyny poszczepienne. W literaturze proponowano nawet koncepcję przyznania zaawansowanym AI pewnej formy osobowości prawnej, co pozwalałoby przypisać im odpowiedzialność – aczkolwiek jest to pomysł bardzo kontrowersyjny i na razie czysto teoretyczny. Aktualnie brak jednolitych regulacji. Przegląd systematyczny prac prawniczych z lat 2020–2023 podkreślił, że obowiązujące ramy odpowiedzialności są niedostosowane do SI medycznej i wymagają pilnych modyfikacji, bo brakuje przepisów jasno określających odpowiedzialność poszczególnych stron (twórców algorytmu, podmiotów wdrażających, użytkowników). W oczekiwaniu na rozwiązania legislacyjne pojawiają się pewne wskazania: część ekspertów sugeruje, że jeśli lekarz pierwszego kontaktu używa SI bez specjalistycznej wiedzy o jego działaniu, nie powinien ponosić pełnej odpowiedzialności za błędny wynik – większy ciężar winien spoczywać na producencie algorytmu. Z drugiej strony, dopóki prawo formalnie nie zwalnia lekarza z odpowiedzialności, rozsądni klinicyści będą bardzo ostrożni, by nie opierać decyzji wyłącznie na AI. Pojawia się więc ryzyko, że strach przed odpowiedzialnością zahamuje korzystanie z SI nawet tam, gdzie mogłaby ona pomóc pacjentom. Rozwiązaniem mogą być wytyczne co do stosowania – np. obligujące podwójną weryfikację najważniejszych decyzji (przez lekarza i AI), co komplikuje proces ale rozmywa winę, lub ubezpieczenia od błędów AI. Na poziomie UE trwają prace nad uzupełnieniem przepisów – projekt AI Liability Directive zakłada ułatwienie pozywania producentów AI przez odwrócenie ciężaru dowodu w niektórych sprawach. Na razie jednak „szara strefa” odpowiedzialności jest realnym czynnikiem hamującym pełne zaufanie do diagnostycznej SI zarówno wśród lekarzy, jak i decydentów.
Możliwość wypierania lekarzy z pewnych obszarów decyzyjnych: Najbardziej dramatyczny scenariusz to taki, w którym SI tak bardzo przejmuje proces diagnostyczny, że rola lekarza zostaje zminimalizowana lub wręcz zbędna. Czy to realne zagrożenie? W krótkiej perspektywie – raczej nie, biorąc pod uwagę ograniczenia SI i konieczność nadzoru. Niemniej już dziś niektóre zadania tradycyjnie lekarskie mogą być wykonywane prawie w całości przez AI. Przykładem jest autonomiczny system wykrywania retinopatii cukrzycowej zatwierdzony w USA – działa on bez udziału okulisty: wykonuje zdjęcie dna oka, analizuje je i jeśli nie stwierdza patologii, informuje pacjenta o prawidłowym wyniku, kierując do kontroli za rok. Okulista widzi tylko przypadki z odchyleniami. W tym obszarze AI de facto zastępuje lekarza przy przesiewie. Podobnie w radiologii – jeżeli docelowo jedna SI przesiewa 100% mammografii w populacji i tylko dodatnie przypadki trafiają do lekarza, to liczba potrzebnych radiologów może znacząco spaść. Automatyzacja pewnych decyzji budzi więc obawę o deprecjację roli pewnych specjalizacji. W badaniu ankietowym wśród radiologów 38% przyznało, że boi się, iż SI może ich z czasem zastąpić. Co prawda wiedza o realnych możliwościach AI zmniejsza te obawy (im lepiej radiolodzy rozumieli AI, tym rzadziej przewidywali utratę pracy), niemniej niepokój pozostaje. Nawet jeśli lekarze nie zostaną całkowicie zastąpieni, to zmarginalizowanie ich w procesie decyzyjnym stanowi zagrożenie dla jakości opieki. Medycyna to nie tylko algorytm – to także holistyczna ocena pacjenta, uwzględnienie kontekstu życiowego, wartości pacjenta, elementy intuicji klinicznej. SI operuje na danych, które ma – może brakować jej „obrazu całości”. Jeśli jednak system opieki ślepo zaufa AI, może odsunąć lekarza od aktywnego podejmowania decyzji, sprowadzając go do roli operatora zatwierdzającego sugestie komputera. To zjawisko, określane czasem jako deskilling (utrata umiejętności) i automation complacency (nadmierna poleganie na automatyzacji), obserwowano w lotnictwie – piloci przywykli do autopilota mieli trudności w przejęciu kontroli w sytuacjach awaryjnych. Analogicznie, lekarze rzadziej samodzielnie analizujący obrazy czy dane mogą tracić swoją biegłość. W literaturze wskazuje się, że wprowadzenie AI może hamować zdobywanie kluczowych kompetencji przez szkolących się lekarzy, którzy polegają na systemach wspomagania. Może to skutkować pokoleniem lekarzy mniej doświadczonych w samodzielnym diagnozowaniu i bardziej podatnych na błędy, gdy system zawiedzie. Dodatkowo, pewne aspekty sztuki lekarskiej mogą zostać osłabione – np. sztuka osłuchiwania i interpretacji szmerów może zanikać, jeśli wszyscy polegać będą na AI analizującym nagrania z membrany elektronicznego stetoskopu. Utrata takich umiejętności może być niekorzystna, szczególnie w warunkach ograniczonych zasobów (np. w krajach rozwijających się czy w sytuacjach awaryjnych, gdy zaawansowane technologie są niedostępne). Zatem mimo, że SI na razie nie wypiera lekarzy, to istnieje ryzyko erosji ich roli i kompetencji w obszarach, gdzie AI zacznie dominować proces decyzyjny.
Aktualne regulacje i wytyczne dotyczące medycznej SI w UE i na świecie
Unia Europejska – Akt o SI (AI Act): Unia Europejska wypracowuje obecnie kompleksowe ramy prawne dotyczące sztucznej inteligencji, z kulminacją w postaci Rozporządzenia UE 2024/1689 (tzw. AI Act), które uzgodniono politycznie pod koniec 2023 r.. Akt ten wprowadza podejście oparte na ocenie ryzyka – systemy SI dzielone są na klasy ryzyka, od niskiego po niedopuszczalne. SI stosowana w diagnostyce medycznej będzie niemal zawsze zaliczana do kategorii wysokiego ryzyka, jako że może wpływać na zdrowie i życie ludzi. Dla takich systemów AI Act przewiduje surowe wymagania: konieczność wdrożenia systemu zarządzania ryzykiem, zapewnienia wysokiej jakości danych szkoleniowych (by unikać biasu), dokumentacji technicznej umożliwiającej prześledzenie działania algorytmu oraz zapewnienie nadawania wyjaśnień użytkownikom. Co istotne, rozporządzenie AI Act będzie bezpośrednio obowiązywać we wszystkich krajach UE (w tym w Polsce) po okresie przejściowym. Obecnie przewiduje się, że przepisy dotyczące systemów wysokiego ryzyka wejdą w życie ok. 2026–2027 r. (36 miesięcy od wejścia aktu w życie). Już dziś jednak producenci wyrobów medycznych z funkcjami SI muszą spełniać wymogi europejskiego Rozporządzenia o Wyrobach Medycznych (MDR) oraz Rozporządzenia o Wyrobach Medycznych IVD, które nakładają obowiązek certyfikacji i oceny bezpieczeństwa oraz skuteczności klinicznej takich rozwiązań. AI Act uzupełnia MDR, dodając szczegółowe wymagania dotyczące m.in. transparentności (np. informowania użytkownika, że ma do czynienia z SI) i nadzoru nad systemem w całym cyklu życia. Celem jest zapewnienie, że medyczna SI będzie bezpieczna, skuteczna i zgodna z prawami podstawowymi. Wśród zasad nadrzędnych wymienianych w preambule Aktu znajdują się: bezpieczeństwo, poszanowanie praw człowieka (w tym prywatności), wspieranie innowacji oraz zapewnienie przejrzystości i nadzoru nad systemami wysokiego ryzyka. Dla praktyki diagnostycznej oznacza to, że za kilka lat każdy algorytm decyzyjny używany w szpitalu będzie musiał przejść formalny proces oceny zgodności z tymi wymaganiami i uzyskać znak CE z uwzględnieniem przepisów AI Act. To spowoduje, że dzikie wdrożenia prototypowych algorytmów (co dziś się zdarza) zostaną zastąpione przez certyfikowane narzędzia z udokumentowanymi właściwościami. Warto wspomnieć, że równolegle Komisja Europejska pracuje nad Kodeksem etyki SI, wcześniej (2019) opublikowała wytyczne dla Godnej Zaufania SI (Trustworthy AI), kładąc nacisk na siedem wymiarów: nadzór człowieka, solidność techniczna, prywatność, przejrzystość, różnorodność i niedyskryminacja, dobro społeczne oraz odpowiedzialność. Te miękkie wytyczne znalazły odzwierciedlenie w twardym prawie AI Act. Ponadto, Europejska Agencja Leków (EMA) wydała w 2021 r. dokument refleksyjny dotyczący wykorzystania SI w cyklu życia produktu leczniczego – od badań klinicznych po nadzór porejestracyjny – podkreślając potencjał AI, ale i konieczność walidacji i zarządzania ryzykiem. W Polsce, jako kraju UE, zastosowanie znajdą powyższe regulacje unijne. Ministerstwo Zdrowia rozpoczęło także prace nad strategią AI w ochronie zdrowia, a Agencja Oceny Technologii Medycznych (AOTMiT) analizuje, jak uwzględniać algorytmy w procesach refundacyjnych i standardach opieki (np. czy dopuszczać ich użycie w programach profilaktycznych). Choć szczegółowe polskie wytyczne jeszcze nie powstały, widać rosnącą świadomość decydentów co do konieczności ujęcia SI w ramach prawnych.
Globalne wytyczne – WHO i inne organizacje: W skali międzynarodowej kluczowym dokumentem jest raport Światowej Organizacji Zdrowia (WHO) z 2021 r. „Ethics and governance of artificial intelligence for health”, który zawiera 6 ogólnych zasad, jakie powinny przyświecać wdrażaniu SI w zdrowiu. Te zasady to: (1) Autonomia człowieka – SI musi wspierać, a nie podważać autonomię pacjentów i personelu; decyzje powinny być podejmowane z poszanowaniem praw pacjenta (w tym prawa do zgody lub odmowy SI). (2) Dobroczynność – nadrzędnym celem ma być poprawa zdrowia i dobrostanu; SI powinna przynosić realne korzyści kliniczne. (3) Nieszkodzenie – zasada „primum non nocere” przekłada się na konieczność zapewnienia bezpieczeństwa i minimalizowania ryzyka błędów algorytmu; wymaga to rygorystycznych testów i nadzoru. (4) Sprawiedliwość – AI powinna być inkluzywna i równa, tak by korzyści z niej płynące dostępne były dla wszystkich, a nie tylko uprzywilejowanych populacji; trzeba unikać pogłębiania nierówności i dyskryminacji algorytmicznej. (5) Przejrzystość – proces projektowania i wdrażania SI powinien być transparentny, z jawnymi kryteriami działania na tyle, na ile to możliwe; obejmuje to informowanie społeczeństwa o użyciu SI. (6) Odpowiedzialność – musi istnieć jasna odpowiedzialność i mechanizmy rozliczalności dla twórców i użytkowników SI; błędy nie mogą pozostawać w próżni prawnej. WHO podkreśla, że prawa człowieka i etyka muszą stać w centrum projektowania i wdrażania AI. Raport wskazuje też na luki – np. brak spójnych regulacji między krajami, trudności regulatorów za dotrzymaniem kroku innowacjom. Oprócz WHO, własne rekomendacje wydały m.in. UNESCO (Rekomendacja dot. etyki SI, 2021) oraz OECD (2019, zasady SI, które UE i USA podpisały). W USA urząd FDA od kilku lat dopuszcza do obrotu algorytmy diagnostyczne jako wyroby medyczne – do 2022 r. zatwierdzono ponad 340 algorytmów, głównie z zakresu radiologii i kardiologii. FDA wydała też ramy adaptacyjnej regulacji dla ciągle uczących się modeli (tzw. pre-market certification). Wydaje się, że globalnie zmierza się ku umiędzynarodowieniu standardów – być może na forum WHO powstaną w przyszłości rekomendacje prawne podobne do międzynarodowych przepisów zdrowotnych, tak by zapewnić minimalny poziom bezpieczeństwa SI wszędzie. Niemniej na razie prym wiodą regulacje regionalne (UE) i krajowe. Warto wspomnieć, że organy zawodowe również zabierają głos: np. w 2020 r. European Society of Radiology wydało wytyczne dot. audytu algorytmów AI w radiologii, a Polskie Towarzystwo Kardiologiczne w 2022 r. opublikowało stanowisko nt. wykorzystania AI w diagnostyce kardiologicznej, zalecając ostrożną integrację przy jednoczesnym monitorowaniu jakości. Krótko mówiąc, regulacje nadrabiają zaległości – ich celem jest uczynić SI godnym zaufania narzędziem poprzez narzucenie standardów bezpieczeństwa, efektywności i etyki.
Aspekty ekonomiczne i refundacyjne: Wprowadzenie SI do diagnostyki pociąga za sobą pytania o koszty i finansowanie. Z jednej strony, oczekuje się, że AI poprawi efektywność kosztową opieki – np. zmniejszy liczbę niepotrzebnych badań poprzez trafniejsze diagnozy, zapobiegnie kosztownym powikłaniom dzięki wczesnemu wykryciu chorób, czy zastąpi część pracy wysoko płatnych specjalistów rutynowymi zadaniami. Z drugiej strony, rozwój i wdrożenie AI wymaga inwestycji (licencje na oprogramowanie, sprzęt komputerowy, szkolenia personelu), co generuje nowe koszty stałe. Analizy ekonomiczne SI w ochronie zdrowia dopiero się pojawiają i na razie ich wyniki są mieszane. Systematyczny przegląd z 2022 r. wykazał, że liczba pełnych analiz ekonomicznych AI jest niewielka (zidentyfikowano zaledwie 20 publikacji spełniających kryteria do 2019 r.) i często brakuje im standaryzacji – trudno więc wyciągać jednoznaczne wnioski. W jednej z najobszerniejszych analiz przeprowadzono symulacje Markowa z wykorzystaniem danych klinicznych, porównując tradycyjne podejście vs wsparcie AI w trzech scenariuszach: wykrywanie czerniaka, próchnicy oraz retinopatii cukrzycowej. Okazało się, że marginalna poprawa dokładności diagnozy dzięki AI przekłada się tylko na marginalną poprawę wyników zdrowotnych (mierzoną QALY). AI przyniosła pewne ograniczone oszczędności kosztów w dermatologii i stomatologii, ale w okulistyce wręcz zwiększyła koszty (ze względu na cenę technologii) przy podobnym efekcie zdrowotnym. Przykładowo, w diagnostyce czerniaka AI obniżyła średni koszt na pacjenta z $759 do $750 przy identycznym niemal zysku QALY, co oznacza zasadniczo koszt neutralny wynik. Z kolei w badaniach przesiewowych dna oka koszt wzrósł (~559 vs $533 PPP), a QALY pozostały na poziomie ~8,4 – tu AI okazała się nieopłacalna w porównaniu do lekarza. W stomatologii AI nieco obniżyła koszty leczenia próchnicy (320 vs 342 EUR) i wydłużyła czas zachowania zębów (62,4 vs 60,9 lat) – czyli wykazała dominację kosztową (taniej i skuteczniej). Te wyniki pokazują, że opłacalność AI jest silnie kontekstowa – zależy od ceny technologii, różnicy w skuteczności względem standardu i konsekwencji klinicznych decyzji. Dowody na ekonomiczne korzyści AI w opiece zdrowotnej są na razie ograniczone i niejednoznaczne. Istotne jest, by przyszłe analizy obejmowały realne dane z wdrożeń, a nie tylko modele teoretyczne, oraz uwzględniały koszty „miękkie” (np. szkolenia, konserwacja systemu). Pojawiają się też prace metodologiczne – np. standardy raportowania, aby ujednolicić wyceny efektywności kosztowej AI.
Z punktu widzenia płatnika (NFZ w Polsce, ubezpieczycieli w innych krajach) kluczowe jest pytanie: czy finansować procedury z użyciem AI, a jeśli tak, to jak?. Czy np. badanie EKG ocenione przez algorytm zamiast kardiologa będzie rozliczane tak samo, taniej czy drożej? Obecnie brak jest osobnych taryf na „usługi AI” – raczej traktuje się AI jako element procesu, bez wyróżniania w rozliczeniu. Jeśli AI pozwala zredukować koszty (np. mniejsza liczba lekarzy przy skriningu), oszczędności pozostają po stronie świadczeniodawcy lub systemu jako całości. Ale producent AI zapewne oczekuje wynagrodzenia za swój produkt – stąd model biznesowy może zakładać opłaty licencyjne per badanie lub abonament. System refundacyjny będzie musiał to ująć. Być może w przyszłości pojawią się odrębne kody procedur medycznych dla diagnostyki wspomaganej AI. W USA już wprowadzono pierwsze kody CPT na automatyczną analizę niektórych badań (np. skanów oka). W Polsce AOTMiT rozważa, jak oceniać HTA dla AI – być może algorytmy będą musiały wykazać koszt-efektywność (np. koszt za uzyskane QALY) podobnie jak leki, by uzyskać publiczne finansowanie. Inną perspektywą ekonomiczną jest makroekonomia opieki zdrowotnej: jeżeli AI faktycznie poprawi skuteczność diagnozy i leczenia, powinno to przynieść oszczędności wynikające z unikniętych powikłań i hospitalizacji. Przykładowo, AI wcześnie wykrywająca raka może zmniejszyć koszty leczenia onkologicznego (krótsze, mniej agresywne terapie). Z drugiej strony, ultraczułe algorytmy mogą zwiększać liczbę fałszywie dodatnich wyników, prowadząc do zbędnych biopsji czy stresu pacjentów – to generuje koszty i obciążenia. Należy więc wyważyć czułość i swoistość systemów także pod kątem ekonomii. Wreszcie, adaptacja AI może wymagać reorganizacji modeli opieki – np. przesunięcia części zadań diagnostycznych na średni personel z pomocą AI, co wpływa na struktury wynagrodzeń i zakres obowiązków. Takie zmiany muszą być zaplanowane, by przyniosły oczekiwane oszczędności, a nie chaos organizacyjny. Podsumowując, choć SI jawi się jako potencjalny czynnik redukcji kosztów i zwiększenia wydajności ochrony zdrowia, dowody empiryczne jej opłacalności są jeszcze skąpe. Decydenci powinni inwestować w pilotażowe wdrożenia i badania porównawcze (RCT, analizy kosztów), by zidentyfikować obszary, w których AI daje najlepszy „zwrot z inwestycji” dla systemu i pacjentów.
Implikacje etyczne (perspektywa czterech zasad bioetyki)
Wprowadzanie SI do diagnostyki należy rozpatrywać w świetle klasycznych zasad bioetyki: autonomii, dobroczynności, nieszkodzenia i sprawiedliwości. Każda z nich rzuca światło na określone wyzwania etyczne i społeczne związane z AI.
Autonomia: Zasada poszanowania autonomii wymaga, by pacjent miał prawo decydować o swoim leczeniu i był odpowiednio poinformowany. W kontekście SI pojawiają się pytania o świadomą zgodę i prawo do informacji. Czy pacjent powinien wiedzieć, że jego diagnostyka została wsparta przez algorytm AI? Większość ekspertów twierdzi, że tak – zaufanie wymaga transparentności, a zatajenie użycia SI mogłoby naruszać zaufanie w relacji terapeutycznej. Konwencja Bioetyczna (Oviedo) wymaga zrozumiałej informacji dla pacjenta przed interwencją medyczną. Jeśli AI uczestniczy w podejmowaniu decyzji, pacjent ma prawo wiedzieć, na jakiej podstawie postawiono diagnozę. Niestety, jak omawiano, wyjaśnienie działania AI bywa trudne – to rodzi wyzwanie epistemiczne dla świadomej zgody. Być może rolą lekarza będzie tu występowanie jako mediatora i tłumacza między AI a pacjentem. Lekarz, otrzymawszy od AI np. informację o wysokim prawdopodobieństwie choroby, powinien potrafić przełożyć to pacjentowi na język korzyści i ryzyka. Ważnym aspektem autonomii jest też prawo do odmowy – pacjent może nie życzyć sobie, by o jego zdrowiu decydowała maszyna. RODO (GDPR) daje mu w pewnych sytuacjach możliwość zażądania interwencji człowieka przy decyzji automatycznej. Etycznie, jeśli pacjent nie ufa SI, lekarz powinien to uszanować i np. samodzielnie zweryfikować wyniki. Autonomia to również kwestia poufności i prywatności danych – pacjent ma prawo, by jego dane medyczne były chronione. Trening algorytmów wymaga ogromnych baz danych pacjentów, co budzi obawy o anonimowość i zgodę na wykorzystanie danych. RODO surowo reguluje przetwarzanie danych wrażliwych (zdrowotnych) – musi być ku temu podstawa prawna, np. zgoda lub ważny interes publiczny. Dodatkowo, wymaga stosowania zasad minimalizacji danych i zabezpieczenia ich przed dostępem niepowołanych osób. W etyce medycznej tajemnica lekarska jest filarem autonomii pacjenta – AI nie zwalnia z jej dochowania. Należy więc dbać, aby modele były trenowane na danych odpowiednio zanonimizowanych, a systemy działały w bezpiecznych środowiskach (np. chmury spełniające normy ochrony danych medycznych). Podsumowując, autonomia wymaga, by pacjent zachował podmiotowość w procesie diagnostycznym z AI: powinien być świadomy użycia SI, mieć możliwość zadawania pytań i wyrażenia preferencji (np. co do dalszych kroków, jeśli AI proponuje inwazyjne badanie). Nie może być sprowadzony do biernego odbiorcy „wyroku algorytmu”.
Dobroczynność (beneficence): Zobowiązuje do aktywnego działania na korzyść pacjenta – w tym kontekście oznacza to wykorzystywanie SI tam, gdzie realnie może poprawić wyniki zdrowotne. Etycznie dobrem jest np. trafna i szybka diagnoza, pozwalająca wyleczyć chorobę we wczesnym stadium. Jeśli zatem istnieje algorytm, który udowodniono w badaniach klinicznych, że zwiększa wykrywalność danej choroby o istotny procent (i nie powoduje nadmiernych szkód ubocznych), to z perspektywy dobroczynności lekarze i system powinni dążyć do jego wdrożenia dla dobra pacjentów. Zaniechanie użycia znanego, skutecznego narzędzia mogłoby być uznane za działanie na szkodę chorego (non-maleficence) lub brak działania na jego korzyść. Jednak zasada dobroczynności nie usprawiedliwia pochopnego wdrażania niedojrzałych technologii. Wręcz przeciwnie – wymaga upewnienia się, że dana SI faktycznie przynosi więcej korzyści niż szkód (analiza ryzyka i korzyści). Stąd tak istotne są badania walidacyjne i kliniczne przed szerokim zastosowaniem AI. Działanie w imię dobra pacjenta oznacza też, że lekarz korzystając z AI powinien ciągle monitorować jej decyzje i weryfikować poprawność w konkretnym kontekście klinicznym, by mieć pewność, że postępuje optymalnie. Nie powinien np. stosować algorytmu poza zakresem, w którym go przetestowano (to tzw. misuse). Zasada dobroczynności przekłada się również na rozwój SI w obszarach o największej potrzebie zdrowotnej. Firmy mogą komercyjnie woleć tworzyć gadżety AI dla dermatologii estetycznej, ale dobro publiczne wymaga inwestowania AI tam, gdzie jest duże obciążenie chorobami poważnymi (np. AI w onkologii, kardiologii). WHO w swoich zasadach podkreśla, że AI powinna służyć wzmocnieniu systemów opieki i zdrowiu populacji. Dobroczynność to też edukowanie pacjentów o możliwościach AI – np. informowanie, że dzięki nowej metodzie diagnostycznej wzrosły ich szanse na wyleczenie. Pozwala to budować akceptację dla technologii, co samo w sobie jest korzystne, bo pacjent współpracujący (ufający diagnozie) lepiej stosuje się do zaleceń. Reasumując, z perspektywy etyki powinniśmy wdrażać AI tam i wtedy, gdy mamy podstawy sądzić, że poprawi to stan zdrowia pacjentów (bądź jakości ich opieki), a powstrzymywać się, gdy korzyść nie jest pewna.
Nieszkodzenie (non-maleficence): „Przede wszystkim nie szkodzić” – ta maksyma nabiera ostrości przy rozważaniu potencjalnych szkód ze strony SI. Opisane wcześniej ryzyko błędów algorytmu czy biasów jest tu kluczowe. Z etycznego punktu widzenia należy zminimalizować ryzyko wyrządzenia krzywdy pacjentom przez AI. Oznacza to potrzebę starannej walidacji klinicznej (co podkreślają zarówno regulatorzy, jak i społeczność naukowa) i monitorowania działania SI po wdrożeniu (tzw. post-market surveillance dla algorytmów, analogicznie do leków). Zasada nieszkodzenia wymaga także przygotowania planów postępowania na wypadek błędu AI – np. jeśli system patologiczny pominie zmianę nowotworową na preparacie, laboratorium musi mieć procedury kontrolne (np. losowy audyt części preparatów przez człowieka) by złapać takie przypadki. Innym wymiarem non-maleficence w kontekście SI jest bezpieczeństwo danych pacjenta. Naruszenie prywatności czy wyciek danych medycznych może wyrządzić pacjentowi krzywdę (np. stygmatyzacja, dyskryminacja ubezpieczeniowa). Stąd obowiązek zapewnienia cyberbezpieczeństwa systemów AI, szyfrowania danych, spełniania standardów RODO. Każda implementacja AI powinna być poprzedzona oceną ryzyka w zakresie ochrony danych (DPIA). Wreszcie, nieszkodzenie to zachowanie czujności diagnostycznej – lekarze nie powinni dać się uśpić wygodzie AI kosztem własnej uwagi. Jak wskazano, automatyzacja może prowadzić do bierności i spadku umiejętności. Aby nie szkodzić pacjentom, konieczne jest utrzymanie kompetencji personelu. Być może oznacza to, że od czasu do czasu lekarze będą celowo ćwiczyć „bez AI”, tak jak piloci ćwiczą latanie bez autopilota dla podtrzymania umiejętności – wszystko po to, by w sytuacji awaryjnej (np. awarii systemu) nie zaszkodzić pacjentom brakiem umiejętności manualnych. Kolejna kwestia: kto pilnuje pilnujących? – algorytmy również mogą działać wadliwie lub być celowo sabotowane (np. ataki typu adversarial). Wtedy system może wyrządzać szkodę systemowo. Potrzeba więc mechanizmów niezależnego audytu i certyfikacji algorytmów przed wdrożeniem, co jest elementem propozycji regulacji (AI Act). Z etycznego punktu widzenia dopuszczenie AI bez gruntownego sprawdzenia to zaniechanie zasady non-maleficence ze strony decydentów. Podsumowując, primum non nocere nakazuje rygor bezpieczeństwa: testować, monitorować, zabezpieczać i szkolić, aby AI nie stała się źródłem szkód dla pacjentów.
Sprawiedliwość: Ta zasada obejmuje zarówno sprawiedliwość dystrybutywną (równość w dostępie do korzyści i obciążeń), jak i sprawiedliwość proceduralną (uczciwość procesów). W kontekście AI mówi się dużo o algorytmicznej sprawiedliwości – czyli unikaniu dyskryminacji i zapewnieniu, że AI działa równie dobrze dla różnych grup. Jak wcześniej omówiono, modele mogą wprowadzać lub utrwalać bias, np. gorzej traktować mniejszości etniczne czy kobiety. To oczywiste naruszenie sprawiedliwości. Etycznie nie do przyjęcia jest system, który np. później wykrywa chorobę u osób czarnoskórych niż u białych z powodu niedostatków danych. Równość wymaga zatem celowego działania: zbierania zróżnicowanych danych treningowych, testowania algorytmów pod kątem wydajności w podgrupach (analizy warstwowe wyników) i korygowania stwierdzonych nierówności. Co więcej, zasadę sprawiedliwości naruszałaby sytuacja, gdy nowoczesna diagnostyka AI jest dostępna tylko dla bogatych lub mieszkańców dużych ośrodków, podczas gdy inni mają gorszą, tradycyjną opiekę. Istnieje ryzyko, że kosztowne technologie AI pogłębią przepaść między najlepiej a najsłabiej wyposażonymi placówkami. Dlatego WHO i inne organizacje nawołują, by wdrażanie AI szło w parze z dążeniem do powszechności jej dostępu. Może to oznaczać dotacje dla szpitali powiatowych na systemy AI, otwarte modele dla krajów uboższych, czy wspólne międzynarodowe inicjatywy dzielenia się technologią. Sprawiedliwość obejmuje też sprawiedliwość wobec personelu medycznego – automatyzacja nie powinna prowadzić do nieuzasadnionego zwalniania pracowników bez zapewnienia im możliwości przekwalifikowania czy innych ról. Trzeba znaleźć równowagę, by poprawa efektywności nie odbywała się kosztem krzywdy społecznej (masowego bezrobocia wśród pewnych specjalizacji). Sprawiedliwość proceduralna z kolei oznacza, że proces podejmowania decyzji z udziałem AI powinien być spójny, przejrzysty i odwoływalny. Pacjent powinien mieć możliwość zakwestionowania wyniku AI i uzyskania niezależnej drugiej opinii – choćby od innego lekarza czy innego algorytmu. Nie może dochodzić do sytuacji, że „komputer tak powiedział i koniec”, bez drogi odwoławczej – to byłoby zaprzeczeniem podstawowych praw pacjenta. Wreszcie, sprawiedliwość to także odpowiedzialność (accountability) – jeśli AI wyrządzi szkodę, poszkodowany pacjent powinien mieć sprawiedliwą możliwość uzyskania rekompensaty. O tym była już mowa w kontekście odpowiedzialności prawnej – prawo musi zapewnić skuteczne dochodzenie roszczeń, by pacjent nie został sam z konsekwencjami błędu algorytmu. Reasumując, zasada sprawiedliwości domaga się, by AI w diagnostyce służyła wszystkim po równo, nie dyskryminowała i była wdrażana w sposób uwzględniający dobro całej społeczności pacjentów oraz pracowników ochrony zdrowia.
Konsekwencje rozwoju AI dla zawodu lekarza
Wprowadzenie sztucznej inteligencji do praktyki klinicznej nieuchronnie wpływa na codzienną pracę lekarzy, kształt ich kompetencji oraz rynek pracy medycznej. Warto przeanalizować te przemiany, by zawczasu się do nich przygotować.
Transformacja roli lekarza: Historycznie lekarz był głównym „procesorem informacji” w diagnostyce – to on zbierał dane, analizował i wyciągał wnioski. SI zmienia ten model. Lekarz przyszłości stanie się prawdopodobnie mistrzem orkiestrowania wielu narzędzi, gdzie AI będzie jednym z doradców dostarczających informacje. Rolę tę porównuje się do pilota nowoczesnego samolotu: większość czasu polega on na autopilocie (AI), ale musi czuwać i w razie potrzeby przejąć stery. W praktyce oznacza to, że lekarz będzie bardziej skupiony na syntetyzowaniu wyników (część z nich wygeneruje SI), podejmowaniu decyzji uwzględniających preferencje pacjenta oraz na działaniach wymagających ludzkiego kontaktu – rozmowie, uspokajaniu obaw, motywowaniu do leczenia. Empatia, komunikacja, holistyczne spojrzenie – te cechy lekarza zyskają na znaczeniu, bo maszyny ich nie zastąpią. Natomiast czysto techniczne aspekty diagnostyki mogą zejść na dalszy plan w codziennej pracy. Przykładowo, onkolog kliniczny za dekadę może otrzymywać gotowy raport AI integrujący dane obrazu guza, badania krwi i genomiki z propozycją diagnozy i planu leczenia – jego zadaniem będzie zweryfikować to, uwzględnić np. stan psychosocjalny chorego i przedyskutować plan z pacjentem. To wciąż ogromnie ważna rola, ale inna niż samodzielne analizowanie każdego wyniku. W radiologii – dziedzinie najbardziej narażonej na „automatyzację” – przewiduje się, że radiolog przyszłości oprócz oceny trudnych przypadków będzie pełnić funkcję konsultanta klinicznego: będzie tłumaczyć wyniki AI klinicystom, decydować jakie badanie obrazowe faktycznie zlecić, integrować informacje z różnych modalności obrazowych. Zawód lekarza może stać się bardziej „zarządzaniem informacją” niż jej ręcznym przetwarzaniem, co potencjalnie pozwoli mu objąć opieką więcej pacjentów w tym samym czasie, ale też wymaga nowych umiejętności.
Potrzeba nowych kompetencji: Wejście AI wymusza aktualizację kanonu umiejętności lekarza. Po pierwsze, konieczna jest podstawowa wiedza techniczna o AI – lekarz nie musi być programistą, ale powinien rozumieć, czym jest algorytm uczenia maszynowego, jakie ma ograniczenia, co to jest overfitting, czułość, swoistość modelu itp. Dzięki temu będzie umiał krytycznie ocenić działanie AI zamiast traktować ją jak magiczne pudełko. Po drugie, potrzebna jest umiejętność interpretacji wyników AI – np. czy wynik jest wiarygodny w tym konkretnym przypadku, czy mogą zachodzić czynniki zakłócające (jak jakość danych wejściowych). Lekarz musi wiedzieć, kiedy zaufać AI, a kiedy podchodzić sceptycznie. To trochę nowa odmiana sztuki diagnostycznej: dawniej uczono się np. interpretować zdjęcia rentgenowskie, teraz trzeba nauczyć się interpretować raporty generowane przez AI i np. mapy cieplne atencji sieci neuronowej. Po trzecie, kompetencje informatyczne – obsługa systemów, zrozumienie kwestii bezpieczeństwa danych, współpraca z inżynierami. Przegląd literatury wskazuje, że oprócz „twardych” umiejętności technicznych, nadal kluczowe będą „miękkie” ludzkie kompetencje lekarzy: krytyczne myślenie, etyczna ocena sytuacji, komunikacja. AI nie zwalnia z myślenia – wręcz zwiększa wagę meta-umiejętności: oceny wiarygodności informacji i łączenia różnych źródeł danych. Obecnie wiele inicjatyw edukacyjnych zaczyna wprowadzać elementy AI do programu. W USA AMA uruchomiła specjalne kursy CME z zakresu podstaw SI dla lekarzy. W Europie powstają wytyczne, by włączyć tematykę AI do kształcenia przeddyplomowego – np. w 2021 r. propozycja „Core AI competencies for Medical Schools”, gdzie rekomenduje się naukę podstaw programowania, data science i etyki AI dla studentów medycyny. W Polsce również niektóre uczelnie (np. UW medyczny) planują zajęcia z AI. Kluczowe pytanie brzmi: czy obecni praktykujący lekarze są gotowi? Badania pokazują pewną niepewność – wielu lekarzy nie czuje się kompetentnymi w dziedzinie SI. Potrzeba więc programów szkoleń podyplomowych. W raporcie British Medical Bulletin (2025) podkreślono, że konieczne jest doprecyzowanie wymaganych kompetencji lekarzy w erze AI i opracowanie standardów szkolenia, bo na razie brak jasnych wytycznych, jak szkolić i oceniać takie umiejętności. Innymi słowy, medycyna stoi przed wyzwaniem „cyfrowego dokształcenia” kadr, by mogli oni w pełni wykorzystać narzędzia AI i jednocześnie kontrolować ich działanie.
Ryzyko de-skillingu i utraty biegłości: Wspomniany wcześniej problem de-skillingu dotyczy zarówno obecnych specjalistów, jak i szkolących się rezydentów. Jeśli AI przejmie pewne zadania, to ludzie wykonując je rzadziej, mogą tracić wprawę. Na przykład, jeżeli radiolog w 80% przypadków zgadza się z automatyczną analizą i tylko w 20% musi coś samodzielnie znaleźć, to po latach jego umiejętność dostrzegania subtelnych zmian może się pogorszyć. To z kolei rodzi niebezpieczeństwo w sytuacji, gdy AI się pomyli – czy lekarz to wychwyci, czy już „wyszedł z wprawy”? Symulacje sugerują, że wydajność mieszanych zespołów (AI + lekarz) jest najwyższa, gdy lekarz nie rezygnuje całkowicie z aktywnej analizy. Dlatego część ekspertów proponuje, by systemy AI były używane w trybie „asystenta”, a nie „autopilota”. Oznacza to, że np. lekarz najpierw sam ocenia obraz, a dopiero potem dostaje podpowiedź AI do porównania – tak, by utrzymać własny nawyk oceny. Inne rozwiązanie to rotacja zadań: np. młody radiolog część tygodnia pracuje „ręcznie”, część z AI, aby jednocześnie uczyć się i weryfikować. W edukacji medycznej istotne będzie przemyślenie, jak kształcić praktyczne umiejętności w obecności AI. Młodzi lekarze mogą nie rozwijać pewnej klinicznej intuicji, jeśli zawsze będą mieć odpowiedź AI podaną na tacy. Trzeba więc być świadomym tego zagrożenia i modyfikować programy szkolenia, by jednak zmuszać do samodzielnego myślenia i diagnozowania. W innym razie grozi nam, że za kilkanaście lat specjaliści będą świetnie obsługiwać narzędzia AI, ale nie poradzą sobie bez nich – co może być groźne np. w sytuacji awarii systemu, braku dostępu (wyjazd misyjny, katastrofa) albo w przypadku nowych, nieznanych wyzwań diagnostycznych, gdzie AI jeszcze nie ma modelu. Podkreśla się analogię do lotnictwa: piloci nadal trenują latanie „manualne” właśnie na wypadek tych rzadkich sytuacji. W medycynie być może trzeba będzie regularnie ćwiczyć np. interpretację EKG czy RTG bez wsparcia algorytmu, aby zachować umiejętności. Automation bias to drugi aspekt – lekarze mogą zbytnio ufać AI i przestać kwestionować jej wnioski. Takie bezrefleksyjne podejście jest niebezpieczne. W jednym z badań symulacyjnych wprowadzenie AI poprawiło co prawda ogólną skuteczność diagnostyczną, ale wykazano 7% wzrost wskaźnika błędów spowodowanych automatycznym podążaniem za mylną sugestią AI. Czyli u części uczestników AI osłabiła czujność. Trzeba zatem uczyć „zdrowej nieufności” – lekarz powinien traktować AI jako konsultanta, którego opinii wysłucha, ale ostateczny osąd pozostaje jego. To wymaga pewności siebie i doświadczenia – dlatego młodzi lekarze nie powinni być pozostawieni sami z AI bez mentora. Ważnym czynnikiem będzie też rozwój interfejsów AI tak, by promować aktywny udział lekarza (np. system może pytać o potwierdzenie, prosić lekarza o oceny cząstkowe, zamiast prezentować gotowy werdykt). Podsumowując, utrzymanie kompetencji ludzkich w epoce AI to realne wyzwanie – wymaga świadomych działań szkoleniowych i projektowych, by nie dopuścić do zjawiska „głupiego Jaśka” polegającego wyłącznie na maszynie.
Wpływ na rynek pracy medycznej: Pojawienie się AI rodzi zarówno lęki przed utratą pracy, jak i nadzieje na zmniejszenie problemu niedoboru lekarzy. W skali globalnej szacuje się, że braki kadrowe (zwłaszcza w krajach rozwijających się) są olbrzymie – AI mogłaby częściowo wypełnić tę lukę, zwiększając efektywność obecnych lekarzy. Jeśli dzięki AI jeden specjalista będzie mógł obsłużyć np. 2 razy więcej pacjentów w tym samym czasie, to de facto pomnożymy kadrę. W tym sensie AI może łagodzić problem niedoboru lekarzy i kolejki do specjalistów. Z drugiej jednak strony, w niektórych dziedzinach może nastąpić zmniejszenie zapotrzebowania na pewne specjalności. Radiologia, patomorfologia, medycyna nuklearna – to obszary często wymieniane jako podatne na automatyzację ze względu na obrazowy lub liczbowy charakter danych. Już teraz w Stanach spadła liczba aplikacji na radiologię chwilę po głośnych publikacjach o AI (2016–2018), co łączono ze strachem studentów przed przyszłym bezrobociem. Choć potem trend się odwrócił, sygnalizuje to wpływ samej percepcji AI na wybory zawodowe. Prognozy zatrudnienia są jednak dalekie od scenariuszy katastroficznych. Większość analiz wskazuje, że AI zmieni raczej niż zlikwiduje miejsca pracy lekarzy. W krótkim terminie może nastąpić przesunięcie zadań: mniej lekarzy będzie potrzebnych do czynności czysto diagnostycznych, za to pojawi się popyt na lekarzy potrafiących zarządzać systemami AI, integrować wyniki, zajmować się bardziej złożonymi przypadkami. Może też powstać nowa kategoria profesjonalistów – np. „lekarz-informatoLOG” łączący kompetencje medyczne i data science, który będzie nadzorował algorytmy w szpitalu, wprowadzał usprawnienia, weryfikował ich działanie. Rynek może zatem wymusić na części lekarzy przekwalifikowanie lub subspecjalizację. Ci, którzy tego nie zrobią, mogą mieć trudniej. Być może w przyszłości np. standardem będzie, że radiolog zna podstawy programowania modeli – ci, którzy zostaną przy klasycznym podejściu, mogą być mniej konkurencyjni na rynku pracy. Natomiast specjalizacje wymagające kontaktu z pacjentem, zabiegowe, holistyczne raczej zyskają – AI ich nie zastąpi, a za to odciąży, co pozwoli obsłużyć więcej potrzeb zdrowotnych (np. chirurdzy dzięki lepszej diagnostyce preoperacyjnej od AI będą mogli operować więcej pacjentów dziennie). W ujęciu ekonomicznym, możliwe że zmienią się struktury zatrudnienia: duże szpitale mogą centralizować pewne usługi AI (np. teleradiologia wsparta AI obsługująca wiele mniejszych placówek). To może spowodować geograficzne przesunięcia rynku pracy – mniejsza potrzeba radiologa na miejscu w każdym szpitalu, bo scentralizowany hub obsłuży 10 placówek. W skali Polski może to oznaczać konsolidację części usług diagnostycznych. Jednak ta centralizacja musi być ostrożna, by nie stracić integracji diagnozy z kontekstem klinicznym pacjenta. Wynagrodzenia lekarzy mogą ulec przewartościowaniu: jeśli AI przejmie dużo pracy specjalisty, płatnicy mogą argumentować za obniżeniem wyceny jego pracy w danym zakresie. Z drugiej strony, obsługa AI i odpowiedzialność za całość procesu może wymagać wyższych kwalifikacji – co uzasadnia utrzymanie wynagrodzeń. Tutaj wiele zależy od regulacji i polityki zdrowotnej. Niektórzy eksperci wskazują, że lekarskie stowarzyszenia zawodowe powinny aktywnie uczestniczyć w kształtowaniu zasad wdrażania AI, by chronić zarówno interes pacjentów, jak i godne warunki pracy lekarzy. Istotne jest, aby transformacja była sprawiedliwa – lekarze, których obciążenie spadnie dzięki AI, mogą poświęcić ten zaoszczędzony czas na inne aktywności (badania naukowe, doskonalenie, rozmowy z pacjentami), zamiast obawiać się redukcji etatu. W dłuższej perspektywie wielu komentatorów uważa, że „AI nie zastąpi lekarzy, ale lekarze korzystający z AI zastąpią tych, którzy z niej nie korzystają”. To wskazuje, że adaptacja jest koniecznością: medycy powinni przyjąć AI jako narzędzie podnoszące jakość ich pracy, a nie konkurenta. Ostatecznie, zawód lekarza prawdopodobnie stanie się bardziej satysfakcjonujący, jeśli AI przejmie najbardziej monotonne i obciążające czynności, a zostawi lekarzom esencję ich powołania – leczenie człowieka. Potwierdzają to badania, gdzie lekarze wskazują zmniejszenie wypalenia, gdy AI przejmuje np. dokumentację. Warunkiem jest jednak mądre wdrożenie – tak, aby lekarz czuł się wspomagany, a nie kontrolowany czy spychany na bok przez technologię.
Podsumowanie i rekomendacje
Sztuczna inteligencja w diagnostyce medycznej niesie ogromny potencjał usprawnień, ale i niebagatelne wyzwania. Z jednej strony, to prawdziwa rewolucja technologiczna: SI potrafi już dziś wykrywać choroby na wczesnym etapie z dokładnością dorównującą ekspertom, przyspieszać proces diagnostyczny nawet o kilkadziesiąt procent oraz integrować wielowymiarowe dane o pacjencie, wspierając personalizację terapii. Dowody naukowe – choć wciąż rozwijane – wskazują, że odpowiednio zaprojektowane algorytmy mogą poprawić czułość wykrywania np. nowotworów, odciążyć lekarzy od rutynowych zadań i tym samym zwiększyć dostępność opieki. Z drugiej strony, SI rodzi pytania o rolę lekarza i ryzyko utraty przez niego części kompetencji lub autonomii. Wyzwania etyczne obejmują konieczność zachowania podmiotowości pacjenta i lekarza w procesie zdominowanym przez algorytmy, zapobieganie biasom i dyskryminacji algorytmicznej, a także zapewnienie sprawiedliwego dostępu do korzyści płynących z AI. Ramy regulacyjne zaczynają odpowiadać na te wyzwania: Unia Europejska, poprzez AI Act, narzuca wysokie standardy bezpieczeństwa i transparentności dla medycznych systemów SI, co powinno wzmocnić zaufanie do tych narzędzi. Istotne jest, by Polska aktywnie wdrażała te regulacje i uczestniczyła w kształtowaniu praktycznych wytycznych ich stosowania. Aspekt ekonomiczny wymaga dalszych badań – wstępne analizy wskazują, że AI musi być naprawdę skuteczna klinicznie, aby była opłacalna, a w niektórych scenariuszach może zwiększać koszty bez poprawy wyników. To podkreśla potrzebę dowodów z realnego świata: zalecamy prowadzenie prospektywnych, wieloośrodkowych badań klinicznych oceniających wpływ zastosowania AI na twarde punkty końcowe (np. śmiertelność, powikłania) oraz na koszty opieki. Takie badania – analogiczne do triali dla nowych leków – są konieczne, by rozwiać wątpliwości co do realnej wartości dodanej AI w diagnostyce. W szczególności randomizowane badania porównujące standardową opiekę z opieką wspomaganą AI w różnych dziedzinach (radiologia, patologia, medycyna ratunkowa itp.) dostarczą cennych danych o skuteczności, bezpieczeństwie i kosztach. Drugim kierunkiem badań powinna być praca nad ulepszaniem modeli pod kątem wyjaśnialności i zaufania. Rozwój metod XAI jest kluczowy – należy projektować interfejsy AI przyjazne dla lekarza, dostarczające zrozumiałych wyjaśnień decyzji algorytmu. Być może przyszłe systemy będą uczyć się od lekarzy uzasadniania swoich „myśli” w sposób zbliżony do ludzkiego rozumowania. To zwiększyłoby akceptację zarówno wśród klinicystów, jak i pacjentów. Rekomendujemy badania nad interakcją człowiek–AI, aby wypracować najlepsze praktyki współpracy (np. kiedy AI ma prezentować wynik, jak ma prosić lekarza o input itp.). Konieczne są też prace nad standaryzacją oceny algorytmów – stworzeniem wymogów testowych (porównywalnych do faz badań klinicznych dla leków) i benchmarków, na podstawie których niezależne instytucje będą mogły certyfikować algorytmy przed dopuszczeniem do użytku klinicznego. Wreszcie, kształcenie kadr musi nadążyć za postępem: zalecamy wprowadzenie do programu specjalizacji modułów szkoleniowych z zakresu AI, a także programów ciągłego szkolenia podyplomowego dla praktykujących lekarzy, by zapewnić im niezbędne kompetencje cyfrowe. Organizacje lekarskie powinny współpracować z instytucjami akademickimi nad zdefiniowaniem profilu „lekarza ery AI” i odpowiednich kompetencji.
Podsumowując, sztuczna inteligencja w diagnostyce sama w sobie nie jest ani wybawieniem, ani zagładą dla roli lekarza – wszystko zależy od tego, jak mądrze ją wykorzystamy. Jeśli zostanie włączona odpowiedzialnie, z poszanowaniem zasad etyki i przy silnym nadzorze jakości, może stać się rewolucyjnym wsparciem: poprawić trafność i szybkość diagnoz, umożliwić bardziej spersonalizowaną opiekę i odciążyć przeciążony personel medyczny. Lekarz zyska wtedy potężne narzędzie, które jednak nie zastąpi jego wiedzy, doświadczenia i empatii, a jedynie je wzmocni. Jeśli jednak wdrożymy AI pochopnie, bez odpowiednich zabezpieczeń, może to podważyć zaufanie pacjentów, doprowadzić do błędów i dehumanizacji medycyny – a to byłoby zagrożeniem zarówno dla pacjentów, jak i dla prestiżu zawodu lekarza. Bilans dotychczasowych badań skłania do ostrożnego optymizmu: korzyści zdają się przeważać, ale pod warunkiem świadomego zarządzania ryzykiem. Najbliższe lata przyniosą zapewne kolejne duże badania skuteczności i programy pilotażowe wdrożeń AI na szeroką skalę (np. narodowe programy skriningowe wspomagane AI). Ważne, by ich wyniki publikować w recenzowanej literaturze i dzielić się doświadczeniami między ośrodkami – tak, aby cała społeczność medyczna uczyła się na bieżąco. Rewolucja SI w diagnostyce już się dzieje, ale to od nas – lekarzy, naukowców, decydentów – zależy, czy pokierujemy nią tak, by wzmocniła, a nie osłabiła, fundamentalną misję medycyny: służbę życiu i zdrowiu człowieka.
Bibliografia:
- Cestonaro, C., Delicati, A., Marcante, B., Caenazzo, L., & Tozzo, P. (2023). Defining medical liability when artificial intelligence is applied on diagnostic algorithms: a systematic review. Frontiers in Medicine, 10, 1305756.
- Dembrower, K., Crippa, A., Colón, E., Eklund, M., & Strand, F. (2023). Artificial intelligence for breast cancer detection in screening mammography in Sweden: a prospective, population-based, paired-reader, non-inferiority study. The Lancet Digital Health, 5(9), e703–e711.
- Gomez Rossi, J., Rojas-Perilla, N., Krois, J., & Schwendicke, F. (2022). Cost-effectiveness of artificial intelligence as a decision-support system applied to the detection and grading of melanoma, dental caries, and diabetic retinopathy. JAMA Network Open, 5(4), e220269.
- Liu, X., et al. (2019). A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. The Lancet Digital Health, 1(6), e271–e297.
- Schuitmaker, L., Drogt, J., Benders, M., & Jongsma, K. (2025). Physicians’ required competencies in AI-assisted clinical settings: a systematic review. British Medical Bulletin, 153(1), ldae025.
- Shin, H. J., Han, K., Ryu, L., & Kim, E. K. (2023). The impact of artificial intelligence on the reading times of radiologists for chest radiographs. NPJ Digital Medicine, 6(1), 82.
- WHO (2021). Ethics and governance of artificial intelligence for health. World Health Organization Report, 150 p..
- Źródła internetowe cytowane w tekście (dostęp 2025): PubMed, PMC, Lancet Digital Health, npj Digital Medicine, ScienceDaily, WHO.int, Nature.com, AMA-assn.org.