123RF
Nie wiadomo, kto ponosi odpowiedzialność za błędy AI
Redaktor: Iwona Konarska
Data: 25.04.2023
Źródło: PAP/Delfina Al Shehabi
Jednym z wyzwań korzystania ze sztucznej inteligencji (AI) w medycynie jest brak regulacji prawnych. Może to spowodować wiele problemów – zauważa prof. Justyna Król-Całkowska, kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.
Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem. – Kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane – mówi prof. Justyna Król-Całkowska.
– To jest podstawowy problem, ponieważ czerpiemy z „regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wynikły podczas jej działania – zaznacza.
W medycynie, jak stwierdza ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję, opierając się na zmiennych, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowej. – Program sztucznej inteligencji obrazuje np. zdjęcia RTG i na podstawie danych, czyli tego, czego się nauczył, stwierdza, czy obraz jest prawidłowy, czy patologiczny – tłumaczy specjalistka. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.
Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? – Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że opierając się na zmiennych, których będzie się AI dostarczać, będzie ona mogła podjąć złą decyzję – stwierdza ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. Sztuczna inteligencja jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.
– Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna – zauważa prof. Król-Całkowska. Wiadomo natomiast, że prawo jest narzędziem, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy, jak i pacjentów przed używaniem AI.
Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. – Przedstawiane są rozwiązania, szczególnie w rozporządzeniu Parlamentu Europejskiego, ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw – ocenia ekspertka.
Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, „ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – kompletnie nie wiadomo, co i jak ją reguluje”. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem prof. Król-Całkowskiej jest to złudne przekonanie.
Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. – Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI – dodaje.
– Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinni tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd – a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka – można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym – zwraca uwagę specjalistka.
Kiedy zatem można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. – Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wówczas, gdy już z czymś jest problem. Myślę, że niestety tak będzie w przypadku sztucznej inteligencji – stwierdza.
Sposobem, aby nie doszło do tragedii, jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI.
– Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno – zaznacza prof. Justyna Król-Całkowska.
Ekspertka ostrzega, że „już wiemy, co może się stać, i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem”.
– To jest podstawowy problem, ponieważ czerpiemy z „regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wynikły podczas jej działania – zaznacza.
W medycynie, jak stwierdza ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję, opierając się na zmiennych, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowej. – Program sztucznej inteligencji obrazuje np. zdjęcia RTG i na podstawie danych, czyli tego, czego się nauczył, stwierdza, czy obraz jest prawidłowy, czy patologiczny – tłumaczy specjalistka. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.
Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? – Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że opierając się na zmiennych, których będzie się AI dostarczać, będzie ona mogła podjąć złą decyzję – stwierdza ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. Sztuczna inteligencja jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.
– Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna – zauważa prof. Król-Całkowska. Wiadomo natomiast, że prawo jest narzędziem, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy, jak i pacjentów przed używaniem AI.
Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. – Przedstawiane są rozwiązania, szczególnie w rozporządzeniu Parlamentu Europejskiego, ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw – ocenia ekspertka.
Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, „ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – kompletnie nie wiadomo, co i jak ją reguluje”. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem prof. Król-Całkowskiej jest to złudne przekonanie.
Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. – Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI – dodaje.
– Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinni tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd – a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka – można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym – zwraca uwagę specjalistka.
Kiedy zatem można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. – Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wówczas, gdy już z czymś jest problem. Myślę, że niestety tak będzie w przypadku sztucznej inteligencji – stwierdza.
Sposobem, aby nie doszło do tragedii, jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI.
– Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno – zaznacza prof. Justyna Król-Całkowska.
Ekspertka ostrzega, że „już wiemy, co może się stać, i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem”.