W placówkach wykorzystujących AI będzie konieczność powołania specjalnych zespołów?
Jak wynika z badania Centrum e-Zdrowia za 2023 rok, narzędzia wspierane przez sztuczną inteligencję wykorzystuje w swojej działalności 6,5 proc. szpitali w Polsce. Podlegają one regulacjom unijnego rozporządzenia AI Act. Może się to wiązać z koniecznością powoływania w podmiotach medycznych zespołów ds. zgodności z tą regulacją.
Jak wyjaśnia dr Gabriela Bar, radczyni prawna z kancelarii Gabriela Bar Law & AI, na łamach dziennika „Rzeczpospolita”, systemy sztucznej inteligencji wysokiego ryzyka ujęte w Akcie AI można podzielić na dwie kategorie. Pierwsza dotyczy systemów, które są uregulowane w odrębnym prawodawstwie harmonizacyjnym UE. Do takiego należy m.in. rozporządzenie o wyrobach medycznych, zgodnie z którym za wyrób taki można uznać też oprogramowanie. Druga kategoria obejmuje systemy, które są stosowane w przypadkach użycia opisanych w załączniku nr III do AI Act.
– Zgodnie z AI Act, jeżeli konkretny system sztucznej inteligencji podpada pod definicję wyrobu medycznego, to zawsze będzie on systemem wysokiego ryzyka – dodaje prawniczka. To w konsekwencji oznacza, że wyrób wykorzystany w placówce spowoduje, że dostawca takiej technologii musi spełnić warunki przewidziane dla dostawców systemów wysokiego ryzyka.
– Wiele obowiązków będzie spoczywało także na podmiocie medycznym, czyli użytkowniku systemu. Należą do nich m.in. korzystanie z systemu AI zgodnie z instrukcją dostawcy, zapewnienie nadzoru ze strony człowieka i powierzenie go osobom, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, przechowywanie generowanych automatycznie rejestrów zdarzeń oraz informowanie zarówno pacjentów, jak i pracowników o wykorzystywaniu systemu AI wysokiego ryzyka – wylicza Gabriela Bar na łamach „Rzeczpospolitej”.
Do oceny aspektów charakteru wykorzystywania AI w placówkach medycznych może okazać się konieczne powołanie zespołu ds. zgodności z udziałem prawnika, lekarza, eksperta ds. technologii i menedżera – ocenia dr Bar.