Jakie zagadnienia reguluje AI ACT?

Próba opracowania sztucznej inteligencji (ang. Artificial Intelligence, AI), która mogłaby podejmować za człowieka trafne decyzje to zagadnienie sięgające lat 50. ubiegłego roku i epoki Alana Turinga. Z biegiem lat w coraz większym stopniu jesteśmy jednak otaczani przez zautomatyzowane algorytmy i – jak do tej pory – brakowało jednoznacznej odpowiedzi na pytanie dotyczące tego, jakie zasady powinno spełniać AI, aby mogło zostać uznane za bezpieczne.
Co więcej, istotnie wzrasta zainteresowanie tzw. AI-generated content, czyli treściami produkowanymi właśnie przez algorytmy komputerowe. Wystarczy wymienić takie oprogramowanie, jak Chat GPT, Midjourney, Article Forge czy Writesonic, żeby dostrzec skalę problemu.
Aby rozwiać wątpliwości dotyczące tego sektora nowoczesnych technologii, Parlament Europejski oraz Rada zaproponowały projekt unijnego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji, czyli tzw. AI ACT, mający regulować m.in. zdalne systemy identyfikacji biometrycznej służące do ścigania poważnych przestępstw przez sztuczną inteligencję. Docelowo unijny ustawodawca zmierza do tego, aby nowe przepisy stały się wspólnotowym standardem na wzór RODO. Jako szczegółowe cele legislacyjne (powody za przyjęciem projektu AI ACT) w preambule rozporządzenia zostało wskazane:
- zapewnienie bezpieczeństwa systemów AI wprowadzonych na terenie UE i znajdujących się w użyciu z prawami podstawowymi oraz unijnymi wartościami;
- zapewnienie pewności prawa na potrzeby inwestycji i innowacji w zakresie AI;
- poprawa zarządzania i skuteczne egzekwowanie przepisów odnoszących się do AI;
- zapewnienie możliwości jednolitego rozwoju rynku oraz bezpiecznego i wiarygodnego zastosowania AI.
Wśród zagadnień regulowanych przez rozporządzenie wymienia się harmonizację przepisów, opracowanie zakazanych praktyk AI, wprowadzenie szczególnych wymogów dotyczących systemów wysokiego ryzyka oraz usystematyzowanie przepisów dotyczących systemów sztuczna inteligencja wchodzących w interakcję z osobami fizycznymi (np. rozpoznawanie emocji, cech osobistych, kategoryzacja biometryczna), szczególnie pod kątem niebezpiecznych zachowań w czasie rzeczywistym (inwigilacji biometrycznej przez organy ścigania).
Kogo dotyczy AI ACT?
Przepisy AI Act, zgodnie z art. 2 rozporządzenia, dotyczą trzech kategorii podmiotów:
- dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii, niezależnie od tego czy dostawcy ci mają siedzibę w państwie Unii czy państwie trzecim;
- użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii;
- dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemy są wykorzystywane w Unii.
Tak szeroki zakres podmiotowy rozporządzenia powoduje, że o przestrzeganie nowych wymagań muszą dbać praktycznie wszystkie podmioty znajdujące się w łańcuchu wytwarzania oprogramowania. Nie ma przy tym znaczenia miejsce ich siedziby. Takie same regulacje musi wdrożyć software house z Polski, Niemiec, Stanów Zjednoczonych czy kraju azjatyckiego.

Zakazane praktyki na gruncie rozporządzenia AI ACT

Rozporządzenie zawiera listę zakazanych praktyk z wykorzystaniem AI, których wdrożenie i wprowadzenie do obrotu jest niedopuszczalne. Wśród nich należy wymienić:
- stosowania systemów oddziałujących podprogowo, poza świadomością danej osoby w celu istotnego zniekształcenia jej zachowania w sposób, który powoduje lub może powodować u tej lub innej osoby szkodę fizyczną lub psychiczną;
- stosowanie systemów wykorzystujących dowolne słabości określonej grupy osób, jak wiek, niepełnosprawność ruchową lub zaburzenia psychiczne;
- użytkowania systemów (w tym przez organy władzy publicznej) na potrzeby oceny lub kwalifikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub cech osobowości;
- wykorzystanie systemów identyfikacji biometrycznej w przestrzeni publicznej, chyba że miałoby to służyć celom wskazanym w rozporządzeniu (np. poszukiwanie ofiar przestępstw czy zapobieganie atakowi terrorystycznemu.
Klasycznym przykładem niedozwolonej praktyki AI jest scoring społeczny stosowany w Chińskiej Republice Ludowej.
Rzut oka na listę niedozwolonych praktyk pozwala przyjąć, że firmy działające w branży IT powinny zacząć ostrożniej podchodzić do realizowanych projektów tak, aby nie stały one w sprzeczności z planowanymi przepisami. Chodzi nie tyle o przedmiot samej umowy, ile jej ostateczny rezultat.
Analiza ryzyka według AI ACT
Projektując rozwiązania z zakresu sztucznej inteligencji należy uwzględnić również systematykę ryzyka wprowadzoną przez unijne rozporządzenie. Można wymienić kilka jego stopni:
- ryzyko minimalne;
- ryzyko ograniczone;
- ryzyko wysokie;
- ryzyko niedopuszczalne.
Rozgraniczenie ma istotne znaczenie, o tyle, że nowe przepisy nakładają dodatkowe wymagania w stosunku do produktów plasujących się w kategorii ryzyka uznanego za wysokie. Określa je art. 9 rozporządzenia, który nakłada obowiązek przeprowadzania ciągłego procesu przez cały cykl życia sztucznej inteligencji, polegającego m.in. na:
- identyfikacji i analizie ryzyka;
- oszacowaniu i ocenie ryzyka;
- ocenie ryzyka mogącego wystąpić po zebraniu danych;
- przyjęciu środków zarządzania ryzykiem.
Opracowując mechanizmu mitygacji ryzyka należy jednocześnie uwzględnić wiedzę techniczną, wykształcenie, szkolenia, jakich oczekuje się od użytkownika oraz docelowego środowiska, w którym ma działać oprogramowanie. W praktyce oznacza to, że software powinien być odpowiednio przystępny i dobrze przetestowany.

Jakie rozwiązania AI zostaną uznane za systemy wysokiego ryzyka?

Za systemy wysokiego ryzyka uznaje się algorytmy odpowiedzialne m.in. za:
- identyfikację biometryczną oraz kategoryzację osób fizycznych;
- systemy podlegające ocenie bezpieczeństwa według prawa wspólnotowego, np. zabawki dla dzieci, samochody, urządzenia medyczne;
- edukację;
- proces zatrudnienia oraz zarządzania pracownikami.
Obowiązki informacyjne wobec użytkowników
Względem AI wysokiego ryzyka przewidziano rozbudowany obowiązek informacyjny, który musi być realizowany względem odbiorców. Obejmuje on m.in.:
- tożsamość dostawcy i upoważnionego przedstawiciela;
- poziom dokładności, solidności i cyberbezpieczeństwa, względem których testowano AI;
- wszelkie znane i mogące dać się przewidzieć okoliczności, które stanowią zagrożenie dla zdrowia i bezpieczeństwa lub praw podstawowych;
- skuteczność działania wobec docelowej grupy odbiorców;
- środki nadzoru ze strony człowieka;
- przewidywany cykl życia aplikacji.
Dodatkowo na dostawcach spoczywa obowiązek wdrożenia systemu zarządzania jakością, opracowanie dokumentacji technicznej, zapewnienie zgodności z wymaganiami prawnymi oraz certyfikacji CE.

Czy użytkownik musi wiedzieć, że rozmawia z AI?

Rozporządzenie wprowadza również dodatkowe wymagania, które dotyczą oprogramowania sztucznej inteligencji przeznaczonego do codziennej interakcji z użytkownikiem. Dotyczy to zarówno botów stosowanych przez np. firmy telekomunikacyjne, jak i programów używanych do tworzenia tzw. computer-generated content, jak ChatGPT.
Kryterium przejrzystości znalazło się w art. 52 rozporządzenia. Zgodnie z tym przepisem dostawcy mają obowiązek zapewnić, że systemy AI przeznaczone do interakcji z osobami fizycznymi projektowano i opracowywano w taki sposób, aby odbiorcy byli informowani o tym, że prowadzą interakcję ze sztuczną inteligencją.
Co więcej użytkownicy systemów rozpoznawania emocji lub kategoryzacji biometrycznej muszą być poinformowani o tym fakcie.
Unijny ustawodawca dostrzegł również problem tzw. deepfake’ów, czyli syntetycznych obrazów łudząco podobnych do osób, obiektów, przedmiotów lub innych obiektów albo zdarzeń. Użytkownicy systemów generujących deepfake mają obowiązek ujawnić, że powstał on wskutek manipulacji rzeczywistości za pomocą sztucznej inteligencji.
Co z piaskownicami regulacyjnymi na potrzeby AI?
Rozporządzenie przewiduje, że państwa członkowskie wprowadzą w swoich porządkach prawnych piaskownice pozwalające na projektowanie, testowanie i walidację opracowywanych rozwiązań oraz ich zgodności z obowiązującymi przepisami.
Warto jednak zwrócić uwagę, że korzystanie ze środowisk testowych nie wyłącza odpowiedzialności za szkody wyrządzone osobom trzecim w związku z funkcjonowaniem AI. Nie znosi też uprawnień nadzorczych właściwych organów oraz konieczności niezwłocznego usuwania zagrożeń.
Obecnie jest o wiele za wcześnie, aby jednoznacznie odpowiedzieć na pytanie o skuteczność AI ACT. Można jednak spodziewać się, że nową regulację odczuje wiele firm, które będą musiały w krótkim czasie zadbać o dostosowanie wewnętrznych procesów, umów z kontrahentami oraz stosowanej technologii do unijnych standardów, powoduje ryzyko spowolnienia rozwoju AI. Warto pamiętać, że wybór formy rozporządzenia przez unijnego ustawodawcę powoduje, że przepisy obowiązują na terenie każdego państwa członkowskiego dokładnie takim samym brzmieniu. Nie będzie potrzeby czekania na transpozycję AI ACT do polskiego porządku prawnego, co ułatwi egzekwowanie prawa w tym z punktu widzenia praw autorskich i internal market czy statusu społeczno ekonomicznego jeśli chodzi o prawa podstawowe przy stosowaniu prawa oraz klasyfikowanie ludzi.
Nasza kancelaria aktywnie pomaga przedsiębiorcom działającym w branży IT, oferując bieżące wsparcie prawne oraz usługi compliance w celu dopasowania biznesu do zmieniającego się otoczenia prawnego.

Pytania i odpowiedzi
Rozporządzenie nakazuje, aby testy były odpowiednie do potwierdzenia funkcjonowania systemu. Należy je przeprowadzać przynajmniej przed wprowadzeniem do obrotu lub oddaniem do użytku w oparciu o przyjęte warunki brzegowe. Opracowując procedurę testową trzeba ustalić czy istnieje wysokie prawdopodobieństwo dostępu takiego software’u dla dzieci lub czy może on mieć na nie wpływ.
Specyfikę danych treningowych określa art. 10 rozporządzenia. Zgodnie z tym przepisem powinny one być adekwatne, reprezentatywne, wolne od błędów i kompletne. Muszą też odpowiadać statystycznie docelowej grupie osób, która ma z nich korzystać z uwzględnieniem konteksty geograficznego, behawioralnego i funkcjonalnego.
Odpowiedź
Zaufali nam: