Kiedy można mówić o AI wysokiego ryzyka?

Pierwszym pytaniem, jaki powinien zadać sobie producent oprogramowania AI, jest to, czy rzeczywiście w danym przypadku trzeba stosować przepisy nowego rozporządzenia.
Już na wstępie należy zauważyć, że nie każdy produkt cyfrowy wykorzystujący sztuczną inteligencję podlega pod rozporządzenie AI Act. Zamawiający, który planuje zlecić stworzenie prostej aplikacji czy też gry komputerowej wykorzystującej sztuczną inteligencję nie musi spełniać wymagań, o których mowa w akcie w sprawie sztucznej inteligencji. Nadal jednak powinien zwrócić uwagę na zgodność z przepisami znajdującymi zastosowanie w przypadku umów o stworzenie aplikacji, np. w zakresie ochrony prawnoautorskiej czy RODO. Jak w takim razie odseparować AI wysokiego ryzyka (ang. high-risk AI systems) od algorytmów, które nie stwarzają zagrożenia wcale lub jedynie w niewielkim zakresie (ang. limited to no-risk AI systems)?
Zgodnie z art. 6 ust. 1 AI Act za system wysokiego ryzyka uznaje się system, który spełnia łącznie następujące warunki:
- jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego ustawodawstwem harmonizacyjnym UE lub sam jest takim produktem;
- podlega – jako element związany z bezpieczeństwem lub samodzielny produkt – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku na podstawie ustawodawstwa harmonizacyjnego.
Unijne prawodawstwo harmonizacyjne to kilkanaście aktów prawnych, które dotyczą takich wyrobów jak maszyny przemysłowe, zabawki, koleje linowe czy systemy i urządzenia do wykorzystania w strefie potencjalnie wybuchowej.
Niezależnie od grupy systemów, które muszą spełnić powyższe warunki, za AI wysokiego ryzyka uważa się też wszystkie systemy sztucznej inteligencji wymienione w załączniku nr III do rozporządzenia, czyli takie, które służą m.in. do:
- identyfikacji i kategoryzacji biometrycznej osób fizycznych;
- zarządzania infrastrukturą krytyczną i jej eksploatacją (np. ciepło, energia elektryczna);
- kształcenia i szkolenia zawodowego (np. ocena uczniów w instytucjach edukacyjnych);
- zatrudniania, zarządzania pracownikami i dostępu do samozatrudnienia (np. filtrowanie podań o pracę, ocena kandydata podczas rozmowy kwalifikacyjnej);
- dostępu do podstawowych ulg prywatnych oraz usług i świadczeń publicznych oraz korzystanie z nich (np. ocena zdolności kredytowej osób fizycznych);
- ścigania przestępstw (np. systemy używane jako poligrafy lub do wykrywania treści stworzonych jako deepfake);
- zarządzania migracją, azylem lub kontrolą graniczną (np. wykrywanie sfałszowanych paszportów).
We wszystkich tych przypadkach można mówić o AI wysokiego ryzyka niezależnie od pozostałych kryteriów. W praktyce oznacza to, że z barierami postawionymi przez AI Act spotkają się zarówno te software house’y, które projektują narzędzia na potrzeby firm prywatnych, jak i podmioty startujące w przetargach publicznych w relacji B2A (ang. Business to Administration).
Wymagania w zakresie certyfikacji
Aby móc zgodnie z prawem korzystać z AI wysokiego ryzyka, należy przejść procedurę oceny zgodności. Polega ona na zweryfikowaniu czy dany system sztucznej inteligencji wypełnia wytyczne wymienione w treści rozporządzenia samodzielnie lub korzystając z usług podmiotu trzeciego. Taką oceną zajmują się jednostki notyfikowane, których zasady funkcjonowania muszą odpowiadać odpowiednio wysokim standardom. Rozporządzenie stawia w tym zakresie jedynie ogólne wymagania, zgodnie z którymi każda jednostka notyfikowana:
- wypełnia wymogi w zakresie organizacji, zarządzania jakością i w zakresie zasobów oraz procesów niezbędne do wykonywania swoich zadań niezależnie od skali działalności prowadzonej przez dostawcę oraz stopnia złożoności systemu AI;
- struktura i funkcjonowanie jednostki notyfikowane nie budzą żadnych wątpliwości i pozostają całkowicie niezależne od dostawcy AI;
- gwarantuje niezależność, obiektywizm i bezstronność w wykonywaniu zadań;
- dysponuje procedurami pozwalającymi na zachowanie tajemnicy przedsiębiorstwa wnioskodawcy.
O wyniku notyfikacji ma zostać powiadomiona Komisja Europejska oraz wszystkie państwa członkowskie z wykorzystaniem odpowiedniego systemu teleinformatycznego. Co istotne, jednostki dokonujące notyfikacji systemu AI mogą posługiwać się w wykonywaniu swoich zadań podwykonawcami, za których ponoszą pełną odpowiedzialność. Każdy dostawca ma jednak prawo do zgłoszenia sprzeciwu względem rozpatrzenia jego zgłoszenia przez podwykonawcę.
Wymagania AI Act a pozostałe ustawodawstwo unijne
Dla podmiotów, które planują wprowadzić na rynek AI wysokiego ryzyka, istotnym ułatwieniem jest regulacja wskazana w art. 40 rozporządzenia. Zgodnie z tym przepisem, jeżeli dany system wysokiego ryzyka spełnia normy zharmonizowane w ramach Unii, uznaje się, że w danym zakresie automatycznie czyni on zadość wymaganiom odnoszącym się do AI wysokiego ryzyka, ale wymienionych w AI Act.
Jeśli więc, przykładowo, producent maszyn przemysłowych spełnił normy ich projektowania zgodnie z tzw. dyrektywą maszynową, nie trzeba po raz kolejny weryfikować, czy dany produkt wypełnia w tym samym zakresie rygory AI Act. Dostawca, który nie wypełnił wspólnych specyfikacji, musi wykazać, że zastosowane przez niego rozwiązania są przynajmniej równoważne.
Domniemanie zachodzi także w zakresie treningu i testów sztucznej inteligencji. Jeżeli dostawca wykaże, że dane szkoleniowe w zakresie środowiska behawioralnego, geograficznego i funkcjonalnego odpowiadają tym, w jakich dany system będzie używany, uznaje się, że AI spełnia wymagania w zakresie specyficzności danych treningowych, o której mowa w art. 10 ust. 4 rozporządzenia.
Jak wygląda procedura oceny zgodności w przypadku AI wysokiego ryzyka?

Aby stwierdzić, że dany system AI spełnia wymagania określone w rozporządzeniu, niezbędne jest przeprowadzenie procedury tzw. oceny zgodności. Przedsiębiorca może ją zrealizować w jednym z dwóch modeli:
- oceny zgodności opierającej się na kontroli wewnętrznej – jeżeli przedsiębiorca stosuje normy zharmonizowane lub też systemy obejmują zagadnienia wymienione w załączniku nr III pkt od 2 do 8 (np. zarządzanie infrastrukturą krytyczną);
- oceny zgodności przeprowadzonej przez jednostkę notyfikowaną – jeżeli:
- przedsiębiorca nie stosuje norm zharmonizowanych (czyli AI dotyczy aspektów nieuregulowanych wspólnotowo) albo też stosuje te normy jedynie częściowo;
- normy zharmonizowane nie istnieją, a nie opracowano w danym zakresie tzw. wspólnych specyfikacji.
Kontrola wewnętrzna dostawcy została opisana w załączniku nr VI do rozporządzenia AI Act i obejmuje weryfikację, czy:
- ustanowiony system zarządzania jakością spełnia wymagania określone w art. 17 rozporządzenia. Są to polityki i procedury, które określają m.in. zarządzanie zmianami w AI, kontrolę i weryfikację projektu czy zasady badania, testowania i walidacji algorytmów;
- dokumentacja techniczna określa wszystkie niezbędne elementy określone przez wymagania zasadnicze rozporządzenia, w tym m.in. system zarządzania ryzykiem i danymi, rejestrowanie zdarzeń czy zachowanie transparentności przed użytkownikiem;
- proces projektowania i opracowywania systemu oraz jego monitorowanie po wprowadzeniu na rynek są zgodne z dokumentacją techniczną.
W przypadku konieczności walidacji systemu przez podmiot zewnętrzny, dostawca samodzielnie wybiera jednostkę notyfikowaną, która przeprowadzi ocenę zgodności, stosując się do wytycznych zamieszczonych w załączniku nr VII do rozporządzenia. Taka kontrola obejmuje:
- ocenę systemu zarządzania jakością;
- ocenę dokumentacji technicznej;
- nadzór nad systemem zarządzania jakością.
Certyfikaty wydawane przez jednostki notyfikowane zachowują ważność przez wskazany w nich okres, który nie może być dłuższy niż 5 lat. Po tym czasie dostawca może ponownie wystąpić o przedłużenie obowiązywania certyfikatu na kolejny okres, ale niezbędne będzie dokonanie ponownej oceny zgodności systemu z przepisami. Wprowadzenie ograniczenia czasowego powoduje, że podmioty zajmujące się produkcją i utrzymaniem systemów AI powinny nieustannie dążyć do ich aktualizacji tak, aby odpowiadały one rynkowym standardom.
Po zakończeniu fazy kontrolnej, a przed wprowadzeniem produktu na rynek system powinien zostać zgłoszony przez dostawcę do właściwej bazy danych działającej na poziomie wspólnotowym. Unijna baza danych dla samodzielnych systemów sztucznej inteligencji wysokiego ryzyka ma być publicznie dostępnym zbiorem informacji.
Jak postępować z deklaracją zgodności?
Dostawca po przeprowadzeniu oceny zgodności systemu ma obowiązek sporządzić deklarację zgodności i przechowywać ją przez okres 10 lat licząc od dnia wprowadzenia systemu na rynek lub oddania go do użytku. Deklaracja powinna być sporządzona w postaci umożliwiającej jej przedstawienie do wglądu upoważniony organom. Jej treść określa załącznik nr V do rozporządzenia, zgodnie z którym taki dokument musi zawierać:
- wszystkie informacje pozwalające na jednoznaczną identyfikację systemu AI;
- oznaczenie dostawcy, a w określonych przypadkach – jego upoważnionego przedstawiciela;
- oświadczenie, że deklarację wydano na wyłączną odpowiedzialność dostawcy;
- oświadczenie, że system AI jest zgodny z rozporządzeniem AI Act, a w razie potrzeby również z innymi przepisami UE;
- wskazanie wszystkich norm zharmonizowanych oraz wspólnych specyfikacji dla których została zadeklarowana zgodność;
- dane jednostki notyfikowanej, jeżeli ocena zgodności została sporządzona przez podmiot zewnętrzny;
- datę i miejsce wystawienia deklaracji.
Dostawca sporządzający deklarację zgodności ponosi wyłączną odpowiedzialność za spełnienie przepisów tym zakresie. W przypadku systemu informatycznego nie ma możliwości fizycznego zamieszczenia na nim potwierdzenia zgodności. Należy zadbać o to na poziomie programistycznym tak, aby po uruchomieniu systemu nie było wątpliwości, że spełnia on niezbędne wymagania.
Wymagania zasadnicze oraz dokumentacja techniczna. Najważniejsze informacje

Osiami, wokół których obraca się formalnoprawny aspekt systemów sztucznej inteligencji wysokiego ryzyka, są wymagania zasadnicze scharakteryzowane w tytule III rozdziale II rozporządzenia oraz dokumentacja techniczna, której elementy zostały wymienione w załączniku nr IV. Planując wprowadzenie na rynek produktu, który z założenia ma podlegać pod AI Act, należy już na samym początku skupić się na tych aspektach technicznych, od których zależy czy dany produkt w ogóle będzie mógł zostać wprowadzony na rynek. Wśród nich można wymienić przede wszystkim:
- opracowanie systemu zarządzania ryzykiem, który będzie mógł być utrzymywany i doskonalony przez cały cykl życia produktu;
- stworzenie procedury zbierania i oceny wiarygodności danych będących materiałem źródłowym dla output data generowanego przez maszynę;
- zaprojektowanie systemu rejestrowania zdarzeń, który pozwala na chronologiczne odtworzenie wyników pracy algorytmu;
- stworzenie rozwiązań technicznych zapewniających sprawne funkcjonowanie tzw. explainable AI, czyli udostępnienie danych w sposób umożlwiających ich zrozumienie i weryfikację;
- zaimplementowanie mechanizmów zapewniających możliwość nadzoru nad algorytmem, a także dokładność, solidność i odpowiedni poziom cyberbezpieczeństwa.
Wprowadzenie do obrotu systemu sztucznej inteligencji wysokiego ryzyka, który nie spełnia wymagań określonych przepisami, jest zagrożone surowymi karami pieniężnymi w wysokości nawet kilkudziesięciu milionów euro. Dlatego prace wdrożeniowe nad AI warto konsultować nie tylko z osobami o wykształceniu technicznym, ale również prawnikami doświadczonymi w obsłudze podmiotów z sektora nowych technologii, którzy zadbają o aspekt formalnoprawny inwestycji.
Kancelaria Prawna RPMS świadczy pomoc prawną na rzecz firm działających w branży IT, w tym także specjalizującym się w tworzeniu algorytmów sztucznej inteligencji. Nasi specjaliści pomogą przygotować dokumentację techniczną systemu, ocenią jego zgodność z wymaganiami zasadniczymi, oraz zajmą się koordynowaniem procesu certyfikacji. Z naszą pomocą dostawca AI zyskuje pewność, że opracowany przez niego system spełnia wszystkie wymagania określone przepisami i może być bezpiecznie udostępniony do użytku odbiorcom.
Pytania i odpowiedzi
Tak, zgodnie z art. 43 ust. 4 rozporządzenia AI Act, systemy sztucznej inteligencji wysokiego ryzyka poddaje się nowej procedurze oceny zgodności za każdym razem, gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy system ma być przedmiotem dalszej dystrybucji czy będzie nadal wykorzystywany przez obecnego użytkownika. Za istotną zmianę uważa się taką modyfikację systemu, która wpływa na zgodność systemu z wymogami zasadniczymi lub powoduje zmianę przeznaczenia względem zakresu pierwotnej oceny.
Przepisy przewidują możliwość zawieszenia lub cofnięcia wydanego certyfikatu, a także możliwość ograniczenia jego zakresu. Jednocześnie dostawcy wyznaczany jest termin, w jakim ma przywrócić zgodność systemu AI z prawem. Dokonanie stosownych zmian spowoduje, że przyznany certyfikat zachowa ważność w całości.
Co do zasady w przypadku systemów AI wysokiego ryzyka pomyślne uzyskanie oceny zgodności jest niezbędne, aby móc zgodnie z prawem wprowadzić produkt na rynek. Niemniej jednak przepisy rozporządzenia wprowadzają możliwość odstąpienia od konieczności uzyskania takiej oceny w wyjątkowych sytuacjach, kiedy jest to uzasadnione m.in. względami bezpieczeństwa publicznego, ochrony życia lub zdrowia osób lub ochrony środowiska. Takie pozwolenie zawsze jest ograniczone czasowo i jest uzależnione od tego, czy organ nadzoru stwierdzi, że system spełnia wymagania zasadnicze.
Zaufali nam: