Maciej Szukała
|
25 lipca 2022
Spis treści

Pojęcie sztucznej inteligencji zostało zaproponowane w 1956 r. przez amerykańskiego informatyka, Johna McCarthy’ego na konferencji w Dartmouth. Od tamtej pory wiele się zmieniło, a inteligentne systemy informatyczne przestały być jedynie częścią literackiej fikcji i towarzyszą nam na co dzień. Do niedawna ta tematyka była czystą kartą dla systemów prawnych. W dniu 20 października 2020 roku Parlament Europejski wydał Rezolucję z zaleceniami dla Komisji w sprawie odpowiedzialności cywilnej za sztuczną inteligencję. Choć nie jest to jeszcze wiążący akt prawny, stanowi on pierwszy krok do regulacji tych zagadnień. Jak kształtuje się odpowiedzialność za szkody wyrządzone przez AI?

Czym jest sztuczna inteligencja?

Pod pojęciem sztucznej inteligencji (ang. Artificial Inteligence, AI) rozumie się programy komputerowe – samodzielne lub sterujące maszynami albo procesami, które nie są oparte o algorytmizację. Oznacza to, że są w stanie podejmować działania i decyzje niebędące wynikiem matematycznych równań, ale takie, które w czasie rzeczywistym dopasowują się do zmiennych warunków środowiska. W założeniu AI ma symulować działanie ludzkiego mózgu lub przynajmniej wybranych jego części. Gdzie dzisiaj wykorzystuje się takie technologie?

  • W reklamie i marketingu – do segmentacji rynków i konsumentów, optymalizacji wyświetlania reklam,

  • w bankowości elektronicznej – jako element zabezpieczeń biometrycznych (np. rozpoznawanie twarzy lub odcisku palca),

  • w sektorze usług – do tworzenia wirtualnych asystentów klienta,

  • w medycynie – do wykrywania nieprawidłowości w badaniach EKG, EEG i innych.

Na skalę masową stosuje się już rozpoznawanie mowy i pisma, czy oceny zdolności kredytowej. Oczywiście zastosowań AI jest znacznie więcej, co jedynie podkreśla wagę technologii i istotność stworzenia odpowiednich rozwiązań legislacyjnych.

Motywy przewodnie projektu rozporządzenia

Tekst rozporządzenia poprzedza obszerny wstęp, który rzuca światło na główne filary projektu aktu prawnego i wyjaśnia wybranie takich, a nie innych rozwiązań.

Czy Unia Europejska uznaje osobowość prawną AI?

Już we wprowadzeniu można przeczytać, że rozporządzenie ma na celu pełną harmonizację zagadnień związanych ze sztuczną inteligencją na terenie państwa członkowskich. Wynika to z bardzo dużej dynamiki rozwoju tych zagadnień i ma zapobiec rozbieżności na poziomie ustawodawstw krajowych.

Na obecnym etapie prac legislacyjnych nie ma jednak mowy o nadaniu odrębnej osobowości prawnej sztucznej inteligencji. Ustawodawca europejski podkreślił, że zagadnienie odpowiedzialności powinno skupiać się dookoła operatora, czyli osoby, która była odpowiedzialna za proces projektowy lub wprowadzenie danych do systemu. Słusznie zauważa się, że personifikacja AI doprowadziłaby do rozmycia odpowiedzialności.

Odpowiedzialność operatora uzasadnia się kontrolą, jaką sprawuje on nad systemem sztucznej inteligencji i związanym z tym ryzykiem. Przemawiają za tym również względy praktyczne – operator najczęściej będzie osobą, którą poszkodowany może w łatwy sposób może ustalić w łańcuchu odpowiedzialności, tym bardziej że systemy AI często są ze sobą łączone tak, aby stworzyć jeden, sprawnie działający organizm.

Odpowiedzialność operatora

Proponowane rozwiązanie dotyczą:

  • operatorów front-end,

  • operatorów back-end.

Pierwsza grupa to osoby fizyczne i prawne, które do pewnego stopnia kontrolują ryzyko związane z funkcjonowaniem AI i korzystają z danego systemu. Z kolei operatorzy back-end to osoby fizyczne lub prawne, które definiują sposób działania systemu, sprawują nad nim kontrolę poprzez jego obsługę, wprowadzenie danych, a także zapewniają wsparcie pozwalające na korzystanie z rozwiązań.

Rezolucja określa sprawowanie kontroli nad sztuczną inteligencją jako dowolne działanie operatora, które wpływa na działanie systemu, a w konsekwencji przekłada się na poziom ryzyka dla osób z niego korzystających, przy czym działanie może polegać na:

  • dostarczeniu danych wejściowych lub wyjściowych,

  • przetworzenie wyników,

  • zmianę konkretnych funkcji,

  • modyfikację zachodzących procesów.

Czy każde AI ma być traktowane w taki sam sposób?

Założeniem projektu rozporządzenia jest rozróżnienie systemów sztucznej inteligencji z uwzględnieniem tzw. AI wysokiego ryzyka (ang. High Risk AI), dla których reżim odpowiedzialności powinien być szczególnie surowy. Co przesądza o zaliczeniu AI do grupy systemów wysokiego ryzyka?

  • autonomiczne działania systemu wiąże się ze znaczny potencjałem wyrządzenia szkody osobie lub grupie osób (np. AI sterujące ruchem ulicznym),

  • ryzyko wyrządzenia szkody jest losowe i wykracza poza to, czego można oczekiwać po systemach danego rodzaju,

  • branża lub charakter prowadzonej działalności (np. AI medyczne).

Przy ocenie stopnia ryzyka powinno się uwzględnić powagę szkody i prawdopodobieństwo jej wystąpienia oraz sposób wykorzystania AI. Ocena powagi szkody powinna być dokonana z uwzględnieniem takich czynników jak:

  • wpływ na prawa podstawowe,

  • liczbę poszkodowanych,

  • całkowita wartość potencjalnych szkód,

  • szkody dla ogółu społeczeństwa.

Ustawodawca wspólnotowy zwraca także uwagę na problematykę związaną z niedostosowaniem sektora ubezpieczeń do rozwiązań związanych z AI. Dostępne obecnie produkty ubezpieczeniowe są w najlepszym razie dostosowane do zabezpieczenia określonego rodzaju produktów lub usług, nie uwzględniają jednak stopnia złożoności, jakiego można oczekiwać od sztucznej inteligencji.

Również całkowity brak porównywalnych danych dotyczących prawdopodobieństwa wystąpienia szkody i jej rozmiarów w opisanej sytuacji sprawia, że niezależnie od uregulowania samej odpowiedzialności konieczne będzie dopasowanie wielu innych branż i sektorów.

Zakres przedmiotowy rozporządzenia

Zgodnie z art. 2 ust. 1 rozporządzenie znajduje zastosowanie na terytorium państw członkowskich wszędzie tam, gdzie działanie sztucznej inteligencji (fizyczne lub wirtualne) albo opartego na niej urządzenia lub procesu prowadzi do:

  • pozbawienia życia, okaleczenia lub uszczerbku na zdrowiu osób fizycznych,

  • powstania szkód majątkowych u osób fizycznych lub prawnych,

  • powstania innych szkód niematerialnych, o ile można ustalić ich wartość ekonomiczną.

Rozporządzenie czyni nieważnymi wszystkie umowy lub postanowienia, które mogłyby wyłączyć albo ograniczyć odpowiedzialność przewidzianą na mocy przepisów unijnych. Jednocześnie jednak wspólnotowa regulacja ma charakter paralelny względem krajowych lub unijnych regulacji dotyczących:

  • odpowiedzialności za produkt,

  • ochrony konsumenta,

  • niedyskryminacji,

  • ochrony pracy,

  • środowiska.

Systemy AI wysokiego ryzyka

W przypadku systemów AI uznanych za stwarzających wysokie ryzyko dla ich odbiorców operator odpowiada na zasadzie ryzyka. Od odpowiedzialności tej nie może się on zwolnić poprzez wykazanie, że działał z dochowaniem należytej staranności lub że szkoda powstała w wyniku autonomicznego działania systemu, czyli takiego, którego nie da się regulować. Odpowiedzialność nie występuje jednak w przypadku szkody powstałej wskutek działania siły wyższej.

Rozporządzenie przewiduje stworzenie załącznika, który będzie zawierał listę systemów AI obarczonych wysokim ryzykiem i listę istotnych branż, w których mogą być one wykorzystane. Może on być na bieżąco modyfikowany poprzez rozszerzenie katalogu lub odwrotnie, wykreślenie z niego systemów, które nie mogą już być dłużej uznane za stwarzające wysokie ryzyko.

W art. 4 ust. 4 rozporządzenia wprowadzono również obowiązek ubezpieczenia systemu AI wysokiego ryzyka. Spoczywa on na:

  • operatorze front-end – musi on dopilnować ubezpieczenia samego systemu,

  • operatorze back-end – ubezpieczeniem muszą być objęte jego usługi.

W obu przypadkach kwota i zakres ubezpieczenia muszą być adekwatne w rozumieniu przepisów rozporządzenia.

Warto zwrócić uwagę, że w tych przypadkach unijne przepisy narzucają na lokalne porządku prawne państw członkowskich odpowiedzialność na zasadzie ryzyka. Oznacza to, że wprowadzenie dla danej klasy systemów AI odpowiedzialności łagodniejszej, na zasadzie winy, nie ma wpływu na ewentualne roszczenia poszkodowanego.

Jak wysokie odszkodowanie przewiduje rozporządzenie?

W przypadku pociągnięcia operatora do odpowiedzialności za szkody wyrządzone przez AI wysokiego ryzykamaksymalna kwota odszkodowania jest różna, w zależności od zakresu szkody. Wynosi ona:

  • 2 miliony euro w przypadku śmierci, uszczerbku na zdrowia lub okaleczenia osoby fizycznej w wyniku działania systemu AI,

  • 1 milion euro w przypadku poważnej szkody niematerialnej o możliwej do ustalenia wysokości ekonomicznej.

Odszkodowania nie wypłaca się, jeżeli poszkodowany na mocy umowy ma prawo do wystąpienia z roszczeniem w stosunku do operatora, a wysokość szkody nie przekracza 500 euro.

Rozporządzenie wprowadza także ograniczenie odszkodowania w sytuacji, kiedy szkoda została wyrządzona kilku osobom, a łączne odszkodowanie przekracza 2 miliony euro. W takiej sytuacji kwoty poszczególnych świadczeń powinny być proporcjonalnie zredukowane tak, aby nie przekroczyć wartości 2 milionów euro.

W jaki sposób wyliczane jest odszkodowanie na gruncie rozporządzenia?

Wysokość odszkodowania w przypadku śmierci, uszczerbku na zdrowiu lub okaleczenia powinno być wyliczane w oparciu o:

  • koszty leczenia (w tym poniesione przed śmiercią),

  • szkody majątkowe związane z ograniczeniem możliwości zarobkowych lub zwiększeniem kosztów utrzymania (w tym wydatki poniesione przed śmiercią).

Niezależnie od tego operator ma obowiązek wypłacić koszty pochówku osobie, która je poniosła.

Szeroki zakres odpowiedzialności jest widoczny szczególnie w art. 6 ust. 1 in fine, który w przypadku śmierci poszkodowanego wprowadza obowiązek operatora do łożenia na utrzymanie osoby trzeciej, z którą poszkodowany pozostawał w związku i do utrzymywania, której był zobowiązany.

Podmiot odpowiedzialny łoży na utrzymanie osoby trzeciej analogiczne kwoty jak poszkodowany, przez czas odpowiadający średniej długości życia osoby w podobnym wieku i w podobnym stanie zdrowia. Dotyczy to także nasciturusa, czyli dziecka poczętego, które jeszcze się nie narodziło.

Okres przedawnienia roszczeń

Projekt rozporządzenia wprowadza odrębne terminy przedawnienia w przypadku szkody wyrządzonej przez AI wysokiego ryzyka, w zależności od wagi skutku.

  • 30 lat od dnia powstania szkody – w przypadku śmierci, kalectwa lub uszczerbku na zdrowiu,

  • 30 lat od przeprowadzenia operacji – w przypadku wykorzystania AI wysokiego ryzyka, jeżeli doprowadziło to do zniszczenia własności poszkodowanego lub poważnej szkody niematerialnej,

  • 10 lat od daty powstania szkody – jeżeli uszczerbek ma charakter majątkowy lub jest możliwą do zweryfikowania stratą ekonomiczną.

Jednocześnie priorytet zachowują krajowe porządki w zakresie dotyczącym zawieszenia lub przerwania terminu przedawnienia.

Dla „zwykłych” systemów zastosowanie znajdą krajowe normy dotyczące przedawnienia oraz zakresu i kwot odszkodowania.

Odpowiedzialność za szkody wyrządzone przez AI inne niż systemy wysokiego ryzyka

W przypadku systemów AI, w stosunku do których nie powstaje wysokie ryzyko powstania szkody, ustawodawca unijny przyjął odpowiedzialność operatora za zasadzie winy za wszelkie szkody spowodowane przez:

  • fizyczne lub wirtualne działanie systemu,

  • działanie urządzenia sterowanego systemem,

  • funkcjonowanie procesu opartego na systemie.

Operator może wyłączyć się od odpowiedzialności, jeżeli wykaże, że:

  • AI zostało uruchomione bez zgody operatora, a jednocześnie podjęto wszelkie rozsądne i niezbędne środki, aby tego uniknąć, chyba że nie można ustalić miejsca pobytu sprawcy szkody albo jest on niewypłacalny.

  • Dochowano należytej staranności poprzez łączne:

    • dobranie właściwego AI do zadania,

    • prawidłowe uruchomienie procesu,

    • nadzorowanie działania systemu,

    • regularne aktualizowanie oprogramowania,

  • szkoda powstała wskutek siły wyższej lub wyłącznej winy poszkodowanego albo osoby, za której działanie on odpowiada.

Nie jest dopuszczalne zwolnienie się od odpowiedzialności poprzez wykazanie autonomicznego działania systemu AI. Rozporządzenie nakładana obowiązek współpracy operatora oraz producenta systemu dla określenia zakresu odpowiedzialności.

Modyfikacje odpowiedzialności

Rozporządzenie przewiduje redukcję odpowiedzialności operatora w przypadku przyczynienia się poszkodowanego do powstania uszczerbku. Obie strony postępowania mogą korzystać z danych wygenerowanych przez system, który wyrządził szkodę do ustalenia odpowiedzialności i jej zakresu.

W przypadku wyrządzenia szkody przez kilku operatorów, ich odpowiedzialność jest solidarna. Jeżeli którykolwiek z operatorów (back-end lub front-end) jest jednocześnie producentem systemu AI, rozporządzenie ma priorytet przed dyrektywą w sprawie odpowiedzialności za produkt. Operatorzy mogą dochodzić między sobą roszczeń zwrotnych (tzw. regresów), a także zgłosić je w stosunku do producenta oprogramowania, jeżeli pokryli szkodę w całości.

Rozwój branży IT prowadzi do stopniowego wdrażania rozwiązań sztucznej inteligencji w wiele sfer naszego życia. Wprowadzenie prawnych regulacji, które unormują reżimy odpowiedzialności za szkody wyrządzone przez AI, jest nieuniknione. Dopiero praktyka pokaże jednak, w jakim stopniu sprawdzają się proponowane rozwiązania.

Pytania i odpowiedzi:

Załącznik do rozporządzenia ma być na bieżąco aktualizowany przez Komisję Europejską i umożliwi wylistowanie konkretnych systemów z określonych branż gospodarki.

Obecnie propozycja listy jest wąska i obejmuje m.in. bezzałogowe statki powietrzne, roboty autonomiczne oraz autonomiczne systemy zarządzania ruchem.

Pełną odpowiedzialność co do zasady poniesie naruszyciel, chyba że nie będzie dało się ustalić jego miejsca pobytu lub okaże się one niewypłacalny. W takiej sytuacji odpowiedzialność przejdzie na operatora.


Zaufali nam:


Oceń