Uwaga, nadchodzi AI
Uchwalona w maju 2024 r. przez Radę Europejską dyrektywa AI Act będzie miała bezpośredni wpływ na uczestników sektora ubezpieczeń – dostawców technologii, świadczeniodawców, ale też pacjentów. Powinniśmy na to przygotować się wszyscy bez wyjątku.
- Jak przygotować się na dyrektywę AI Act?
Akt AI w praktyce. Znaczenie nowych przepisów UE
Niesamowity wzrost liczby danych cyfrowych obejmujących każdy aspekt naszego życia daje niezliczone nowe możliwości monitorowania naszego zdrowia, poznawania przyczyn chorób, opracowywania nowych terapii i wpływania na styl życia. Obecnie algorytmy sztucznej inteligencji (AI – Artificial Intelligence) są coraz częściej implementowane w sektorze opieki zdrowotnej, cechując się coraz większą skutecznością. Jednak zastosowanie sztucznej inteligencji w praktyce klinicznej pozostaje jak dotąd ograniczone, a przełomowe osiągnięcia, które zrewolucjonizują opiekę zdrowotną, dopiero są przed nami.
Kluczowym zagadnieniem z punktu widzenia implementacji algorytmów sztucznej inteligencji w opiece zdrowotnej jest ochrona obywateli przed potencjalnymi szkodami związanymi z nową technologią, jak również zapewnienie im bezpieczeństwa i zagwarantowanie ochrony praw podstawowych. Dlatego też 21 maja br. Rada Europejska zatwierdziła przełomową ustawę mającą na celu harmonizację przepisów dotyczących sztucznej inteligencji, tzw. akt w sprawie sztucznej inteligencji – z angielskiego AI Act.
Co dozwolone?
Zgodnie z nowymi przepisami zakazane będą takie zastosowania sztucznej inteligencji, które będą stanowić zagrożenie dla praw obywateli. Restrykcje dotyczyć będą przede wszystkim systemów służących rozpoznawaniu emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości wyłącznie na podstawie profilowania osoby lub oceny jej cech. Wśród innych systemów wymienia się m.in. systemy kategoryzacji biometrycznej, wykorzystujące cechy wrażliwe, jak również nieukierunkowane gromadzenie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej w celu stworzenia bazy danych służącej rozpoznawaniu twarzy. Wyjątkiem są organy ścigania, które mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą jednak posiadać specjalne zezwolenie sądowe lub administracyjne. Zakazana będzie również sztuczna inteligencja, której celem jest manipulowanie zachowaniem ludzi lub wykorzystywanie ich słabości.
Systemy wysokiego ryzyka pod specjalnym nadzorem
Systemy sztucznej inteligencji wysokiego ryzyka zostały objęte szczególnym nadzorem. Wynika to z faktu, iż stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Do obszarów, w których stosowane są takie systemy, można zaliczyć między innymi opiekę zdrowotną. Pozostałe obszary to infrastruktura krytyczna, edukacja czy szkolenie zawodowe, zatrudnienie. Na systemach wysokiego ryzyka bazują także niektóre systemy organów ścigania, wykorzystywane na przykład do zarządzania migracją i granicami lub niektóre systemy stosowane przez wymiar sprawiedliwości. Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Dodatkowo systemy te muszą cechować się przejrzystością i dokładnością, a także podlegać kontroli przez człowieka.
Co to w praktyce oznacza dla pacjenta?
Nowe rozporządzenie daje pacjentom prawo do składania skarg dotyczących AI. Ponadto, pacjenci będą otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa. Tym samym świadczeniodawcy będą musieli brać odpowiedzialność za wszystkie decyzje, w których podjęciu korzystać będą z systemów sztucznej inteligencji. Nowe przepisy prawa mogą przyczynić się do większego zainteresowania pacjentów rozwiązaniami z wykorzystaniem sztucznej inteligencji dzięki wprowadzeniu nowego ładu w zakresie stosowania innowacyjnych rozwiązań. Jest to uzasadnione w szczególności z punktu widzenia liczby start-upów medycznych, które działają lub przymierzają się do podjęcia działalności na polskim rynku ochrony zdrowia.
A jakie znaczenie ma to dla świadczeniodawców?
Nowe regulacje prawne nie pozostaną bez znaczenia z perspektywy świadczeniodawców. Niedobory kadr medycznych, rosnące oczekiwania pacjentów względem świadczonych usług, nadmierne obciążenie pracowników czynnościami o charakterze biurokratycznym, skomplikowane procedury i metody ich rozliczeń, to tylko wybrane problemy, których rozwiązania mogą bazować na wykorzystaniu algorytmów sztucznej inteligencji. Z kolei wyniki analiz dotyczących rozwoju rynku innowacyjnych start-upów medycznych w Polsce (np. raport Top Disruptors in Healthcare) jednoznacznie wskazują na tendencję rozwojową w obszarze opracowywania, rozwoju i wdrażania systemów sztucznej inteligencji w zakresie świadczenia usług medycznych. Należy zatem zakładać, że szpitale czy inne podmioty świadczące usługi medyczne będą zainteresowane rozwiązaniami, które z jednej strony usprawnią ich codzienną pracę, a z drugiej zapewnią bezpieczną obsługę pacjenta.
Czy start-upy mają czego się bać?
W Polsce rozwija się wiele innowacyjnych start-upów medycznych, które wprowadzają nowatorskie technologie do sektora ochrony zdrowia. Wiele z nich opracowuje, rozwija i wdraża rozwiązania z wykorzystaniem algorytmów sztucznej inteligencji. Bardzo często barierą wejścia na rynek są ograniczenia finansowe. Spełnienie przez start-upy dodatkowych warunków formalnych, wynikających z nowych przepisów prawa, będzie wiązać się z określonymi nakładami inwestycyjnymi. Dlatego też konieczne jest wsparcie finansowe dla nowych lub mniejszych organizacji, działających w obszarze innowacji w ochronie zdrowia. Dzięki niemu możliwe będzie zaangażowanie wielu interesariuszy w proces tworzenia i rozwijania systemów sztucznej inteligencji.
Nowe instytucje?
W ramach aktu AI zostanie wyznaczona Europejska Rada ds. Sztucznej Inteligencji oraz organy krajowe w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym. Obecnie obserwuje się rosnące zainteresowanie tematem sztucznej inteligencji wśród agend rządowych, które tworzą rozwiązania w obszarze e-zdrowia między innymi dla pacjentów (na przykład Internetowe Konto Pacjenta). Istnieje wiele obszarów branżowych, na przykład zdrowie publiczne, w których sztuczna inteligencja może być istotnym wsparciem w zakresie podejmowania określonych decyzji i kształtowania świadomości zdrowotnej pacjentów. Można zatem zakładać, że konsekwencje nowych regulacji odczuwalne będą również z punktu widzenia Ministerstwa Zdrowia oraz innych instytucji publicznych (na przykład Centrum e-Zdrowia) odpowiedzialnych za wdrażanie rozwiązań cyfrowych w opiece zdrowotnej w Polsce.
Czy gra jest warta świeczki?
Nowe przepisy prawa mają jednocześnie stać na straży bezpieczeństwa obywateli, a z drugiej strony sprzyjać szybszym wdrożeniom rozwiązań z zastosowaniem tej technologii. W obliczu wielu obaw, z jakimi wiąże się wdrażanie AI, nowa europejska regulacja z pewnością przyczyni się do uporządkowania procesu implementacji sztucznej inteligencji, dookreślając tym samym ramy potrzebne do opracowywania, rozwoju i użytkowania tego typu rozwiązań teleinformatycznych. W początkowej fazie implementacji przepisów można spodziewać się spowolnienia w zakresie wdrażania systemów sztucznej inteligencji. Natomiast patrząc przez pryzmat obecnych wyzwań w zakresie wdrażania innowacji w ochronie zdrowia, nowe przepisy prawa mogą w istotny sposób przyczynić się do skuteczniejszego i efektywniejszego projektowania, kształtowania i wdrażania rozwiązań IT, wykorzystujących sztuczną inteligencję. Nawet najmniejsze niepowodzenie w zakresie wdrażania rozwiązań cyfrowych (na przykład kradzież danych, cyberatak) zwiększa ryzyko reputacyjne, a zatem regulacje przyczynią się do poprawy bezpieczeństwa procesu cyfryzacji w ochronie zdrowia i wyeliminowania ryzyka zahamowania rozwoju e-usług w opiece zdrowotnej.
Dalsze kroki
Nowe regulacje prawne wymagają podjęcia określonych działań na rzecz stworzenia w Polsce warunków, ułatwiających opracowywanie i testowanie nowoczesnych rozwiązań, bazujących na algorytmach sztucznej inteligencji przed ich wprowadzeniem do obrotu. Kluczowe jest również umożliwienie testowania tych rozwiązań w warunkach rzeczywistych. Z perspektywy ochrony zdrowia dostęp do takiej infrastruktury powinny mieć w szczególności start-upy medyczne, których działalność to swoisty poligon doświadczalny w zakresie opracowywania innowacji w tej branży. Dzięki temu możliwe będzie rzetelne opracowywanie i trenowanie innowacyjnych algorytmów AI, zanim znajdą zastosowanie na przykład w placówkach medycznych.
Temat AI jest eksplorowany przez pracowników Zakładu Innowacji w Ochronie Zdrowia, którzy współpracują z Think Tank dla Ochrony Zdrowia SGH w przygotowaniu raportu „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”. Publikacja raportu jest zaplanowana na początek lipca – poinformujemy o tym w „Menedżerze Zdrowia”.
Tekst dr hab. Barbary Więckowskiej, prof. SGH, kierownik Zakładu Innowacji w Ochronie Zdrowia Szkoły Głównej Handlowej, i dr Anny Gawrońskiej, adiunkt w Zakładzie Innowacji w Ochronie Zdrowia SGH.