Zderzenie praktyki klinicznej z AI często nie wypada idealnie ►
– Jest dużo organizacyjnych wyzwań związanych z mentalnością i budowaniem zaufania do narzędzi sztucznej inteligencji. Przed nami ogromna praca na styku doboru właściwych modeli AI, uczenia się tej technologii i zderzenia się z nią w codziennej praktyce klinicznej – stwierdził Michał Smoliński z firmy Radpoint.
Ekspert podkreślił, że w obliczu rozwoju sztucznej inteligencji wiele placówek medycznych rozważa wdrożenie narzędzi AI – są ich ciekawi, jednocześnie mają wysokie oczekiwania wobec skuteczności i realnych efektów takich rozwiązań.
– Zderzenie praktyki klinicznej z możliwościami, jakie daje nam AI, często nie wypada idealnie. Widać, że firmy, które tworzą modele sztucznej inteligencji, wykonały ogromną pracę. Progres w tej dziedzinie jest fantastyczny. Niemniej jednak jeszcze długa droga przed nami. Zarzutem, jaki słyszymy przy wdrożeniach, jest to, że modele AI mają zbyt wąską kliniczną stosowalność. Często zdarza, że narzędzia AI raportują kwestie oczywiste, które lekarz sam potrafi stwierdzić. Niestety skuteczność wielu modeli sztucznej inteligencji jest wciąż niesatysfakcjonująca w obszarach trudnych i stanowiących wyzwanie dla medyków – tłumaczył Smoliński.
Jak zaznaczył, mamy w Polsce także wiele przykładów skutecznych wdrożeń sztucznej inteligencji w placówkach ochrony zdrowia. Są to na przykład narzędzia AI stosowane w sytuacjach nagłych, czyli na szpitalnych oddziałach ratunkowych w obszarze opieki udarowej. Wiele skutecznych wdrożeń dokonano także w onkologii.
– Na przykładzie screeningu raka płuca widzimy, że sztuczna inteligencja pozwala wykonać za radiologa żmudną i czasochłonną pracę związaną ze zmierzeniem objętości guzków w płucach, a także określeniem ich zmian względem poprzedniego badania – wskazał Smoliński.
– Nie ma jednak róży bez kolców. Niekiedy to pierwsze wdrożenie systemu AI w szpitalu kończy się rozczarowaniem, bo okazuje się, że nie chodzi tylko o kwestię znalezienia właściwego modelu, ale również o przebudowę sposobu, w jaki badanie jest wykonywane. Zdarza się, że to, co dobre dla lekarza i przez niego oczekiwane, niekoniecznie spełnia kryteria wejściowe dla modelu AI w danym zakresie – ocenił ekspert.
Wypowiedź Michała Smolinskiego– zarejestrowana podczas jesiennej konwencji programowej Polskiej Federacji Szpitali 28 listopada w Warszawie – poniżej.
Przeczytaj także: „Nasza wizja to zrównoważony system ochrony zdrowia ponad podziałami”.