Gdzie wykorzystywana jest sztuczna inteligencja?
Choć sztuczna inteligencja (ang. Artificial Intelligence, AI) może kojarzyć się użytkownikom wyłącznie z popularnym już dzisiaj Chatem GPT, w rzeczywistości korzysta z niej wiele branż:
- algorytmy uczenia maszynowego pomagają w analizie baz danych, wyszukiwaniu wzajemnych zależności między informacjami oraz rozwiązywaniu problemów fizycznych lub matematycznych;
- widzenie komputerowe to narzędzie stosowanie w oprogramowaniu typu OCR, ale także do wykrywania ruchu pojazdów czy rejestrowania szkód przez firmy ubezpieczeniowe;
- sieci neuronalne stanowią narzędzie wykorzystywane w badaniach medycznych, prognostyce sprzedażowej oraz optymalizacji procesów produkcyjnych lub sprzedażowych.
Oczywiście nie są to wszystkie możliwe sposoby wykorzystania AI, ale pozwalają uchwycić skalę, na jaką rozwinęło się zjawisko „myślących maszyn”. Generowanie treści przy użyciu Chata GPT stanowi tylko jedno – i najmniej istotne – ze wszystkich wyzwań przed jakimi stanął unijny ustawodawca, opracowując AI ACT, czyli rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji i zmieniające niektóre akty ustawodawcze Unii.
Czego dotyczy AI ACT?
Głównym celem AI ACT jest zharmonizowanie wymagań stawianych dla systemów sztucznej inteligencji wprowadzanych na rynek europejski. Przepisy mają pomóc wypracować zbiór dobrych praktyk przy korzystaniu ze sztucznej inteligencji i zaostrzyć wymagania dotyczące rozwiązań stosowanych w newralgicznych obszarach życia oraz wprowadzić system nadzoru nad systemami również po wprowadzeniu ich na rynek.
Odrębną część rozporządzenia poświęcono zagadnieniom związanym z manipulowaniem treściami zamieszczanymi w sieci (zwłaszcza graficznymi lub dźwiękowymi).
Na jakim obszarze obowiązuje AI ACT?
Zakres terytorialny rozporządzenia został określony bardzo szeroko. Zgodnie z art. 2 ust. 1 znajduje ono zastosowanie do:
- dostawców wprowadzających do obrotu lub oddających do użytku sztuczną inteligencję w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę w Unii czy w państwie trzecim;
- użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii;
- dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w państwie trzecim.
W praktyce każdy system AI, który zostanie wprowadzony na terytorium Unii, niezależnie od tego, czy jego dostawca ma siedzibę w Unii czy też w państwie trzecim, ale skutki korzystania z oprogramowania są odczuwalne na terytorium Wspólnoty, musi być zgodny z przepisami rozporządzenia. Dla firm zajmujących się projektowaniem software’u wykorzystującego sztuczną inteligencję to zupełnie nowe wymagania i kolejne bariery, jakie trzeba pokonać przed wprowadzeniem produktu na rynek.
Czym w takim razie jest sztuczna inteligencja?
Rozporządzenie AI ACT definiuje system sztucznej inteligencji, jako oprogramowanie opracowane przy użyciu technik i podejść wymienionych w załączniku nr I, które może generować dla zadanego zestawu celów określonych przez człowieka:
- treści;
- przewidywania;
- zalecenia;
- decyzje
– pod warunkiem że wyniki udostępniane przez algorytm wpływają na środowisko, z którym wchodzi on w interakcję. O jakich technikach i podejściach mowa? Zaliczono do nich:
- mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego;
- metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne programowanie (logiczne), bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie symboliczne i systemy ekspertowe;
- podejścia statystyczne, estymacja bayesowska (racjonalna ocena prawdopodobieństwa wystąpienia określonego wydarzenia), metody wyszukiwania i optymalizacji.
Metody tworzenia AI zostały określone na tyle szeroko, że można je powiązać z przeważającą większością zasad stosowanych przez software house’y przy tworzeniu oprogramowania implementującego algorytmy sztucznej inteligencji.
W jaki sposób AI ACT dzieli systemy sztucznej inteligencji?
Stworzenie jednolitych wymagań dla wszystkich systemów sztucznej inteligencji jest w zasadzie niemożliwe, ponieważ mogą one prezentować różne ryzyko dla potencjalnych odbiorców. Z tego względu rozporządzenie rozróżnia:
- systemy sztucznej inteligencji wysokiego ryzyka;
- systemy sztucznej inteligencji stwarzające niedozwolone ryzyko.
Warto zwrócić uwagę, że AI ACT jedynie w niewielkim stopniu odnosi się do systemów niskiego lub średniego ryzyka, a jedynie do tych algorytmów, które w realny sposób mogą stanowić niebezpieczeństwo dla użytkownika. Do AI niskiego i średniego ryzyka można zaliczyć m.in. popularne generatory treści.
Każdy software AI, który nie mieści się w jednej z powyższych grup, został zaliczony do trzeciej, najmniej niebezpiecznej grupy. W których miejscach należy postawić granicę między poszczególnymi systemami?
Systemy sztucznej inteligencji wysokiego ryzyka
Aby system mógł zostać uznany za stwarzający wysokie ryzyko, musi spełnić łącznie następujące warunki wymienione w art. 6 rozporządzenia:
- system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym lub sam jest takim produktem. Do prawodawstwa harmonizacyjnego zalicza się aktualnie 19 aktów prawnych, w tym m.in. dyrektywa w sprawie bezpieczeństwa zabawek, udostępniania na rynku urządzeń radiowych, ciśnieniowych, a także rozporządzenie w sprawie wyrobów medycznych do diagnostyki in vitro;
- produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji lub sam system jako produkt podlegają ocenie zgodności na podstawie ustawodawstwa harmonizacyjnego.
Za systemy sztucznej inteligencji wysokiego ryzyka uznaje się również wszystkie algorytmy, które dotyczą sfer wymienionych w załączniku III do rozporządzenia, w tym m.in. służące do identyfikacji i kategoryzacji biometrycznej osób fizycznych, zarządzania infrastrukturą krytyczną i jej eksploatacją, ścigania przestępstw czy migracją, kontrolą graniczną lub azylem.
Dodatkowo rozporządzenie zastrzega możliwość poszerzenia definicji systemów wysokiego ryzyka, co ma zapewnić aktualność rozporządzenia pomimo rozwoju technologicznego społeczeństwa.
Systemy sztucznej inteligencji stwarzające ryzyko niedopuszczalne
W tytule II rozporządzenia AI ACT wymieniono praktyki, które zostały uznane za zakazane w kontekście projektowania sztucznej inteligencji. Jak wskazano w art. 5 aktu prawnego, chodzi o takie działania, jak np.:
- wykorzystanie technik podprogowych będących poza świadomością danej osoby w celu zniekształcenia jej zachowania w sposób mogący wywołać szkodę;
- wprowadzanie do obrotu systemów sztucznej inteligencji wykorzystujących słabość określonej grupy osób, np. dzieci, osób w podeszłym wieku, osób z niepełnosprawnością ruchową w sposób zmieniający zachowanie odbiorców i mogący wywołać u nich szkodę;
- oddanie do użytku na potrzeby władzy publicznej systemów przeprowadzających tzw. scoring społeczny (na wzór funkcjonującego w Chinach Social Scoring System, który dzieli obywateli na cztery kategorie – A, B, C oraz D w zależności od podejmowanych przez nich działań);
- wykorzystywanie systemów monitoringu biometrycznego do egzekwowania prawa w czasie rzeczywistym, chyba że jest to niezbędne do zapobieżenia najcięższym przestępstwom (np. atakowi terrorystycznemu).
Jakie zasady muszą spełnić projektowane systemy AI wysokiego ryzyka
Prawodawstwo unijne stawia cały szereg dodatkowych wymagań, jakie muszą spełnić projektowane systemy sztucznej inteligencji. Podstawowe zasady można podzielić na trzy grupy
Wymagania dotyczące bezpieczeństwa i jakości systemów AI
Dostawcy oprogramowania mają obowiązek zaprojektować system zarządzania ryzykiem w odniesieniu do systemów wysokiego ryzyka. Ma on na celu umożliwić cykliczną aktualizację przez cały cykl życia produktu w celu wyeliminowania potencjalnego ryzyka, a tam, gdzie jest to niemożliwe, jego zmniejszenia i wprowadzenia mechanizmów kontrolnych. Wymaga to m.in. opracowania procedury testowej, która będzie w maksymalnym stopniu odzwierciedlała funkcjonowanie AI in vivo, ale także przygotowania reprezentatywnych zbiorów danych treningowych, walidacyjnych i testowych.
Bezpieczeństwo systemów AI polega też na zaprogramowaniu funkcji rejestrowania zdarzeń w całym cyklu życia software’u, przy czym zakres rejestracji jest częściowo uzależniony od przeznaczenia oprogramowania.
Wymagania dotyczące transparentności i odpowiedzialności
AI ACT kładzie nacisk na transparentność, co oznacza, że systemu mają być projektowane „dla użytkownika”. Przekłada się to na taką wizualizację danych, których interpretacja będzie możliwa przez odbiorcę oprogramowania. Co to oznacza w praktyce? Przede wszystkim konieczność wielokrotnego testowania oprogramowania, a także bardzo staranne zaprojektowanie UX aplikacji. Można też zastanawiać się, czy w świetle nowych regulacji dalej będzie sprawdzała się popularna metoda projektowania MVP (ang. Minimum Viable Product).
Rozporządzenie wymaga, aby za wprowadzenie produktu do obrotu odpowiadała konkretna osoba fizyczna, prawna lub jednostka organizacyjna. Dzięki temu można uniknąć wątpliwości, do kogo użytkownik może kierować ewentualne roszczenia. Jednocześnie AI ACT nakłada na dostawcę obowiązek podjęcia niezwłocznych działań naprawczych, a niekiedy nawet wycofania oprogramowania z rynku, jeżeli okaże się, że nie spełnia ono wymagań minimalnych.
Wymagania dotyczące nadzoru i kontroli
Należy zwrócić uwagę, że systemy AI powinny być projektowane tak, aby umożliwić kontrolę przez człowieka, aby oprogramowanie nie mogło działać w sposób w pełni swobodny. Taki nadzór powinien pozwolić na zapobieganie lub minimalizowanie niebezpieczeństwa dla:
- zdrowia;
- bezpieczeństwa;
- praw podstawowych.
Rozporządzenie nakłada obowiązek projektowania aplikacji AI w sposób zapewniający odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa przez cały cykl życia produktu. W jaki sposób rozumieć takie postulaty? Przede wszystkim chodzi o:
- określenie poziomu dokładności i dopuszczalnego progu błędu;
- zapewnienie odporności na błędy, usterki i niespójności podczas interakcji z innymi systemami oraz osobami fizycznymi;
- wprowadzenie rozwiązań zapewniających przejście oprogramowania w tryb bezpieczny, niezależnie od okoliczności (ang. failsafe);
- przewidzenie mechanizmów zapobiegających manipulacji przez osoby nieuprawnione;
- opracowanie rozwiązań zapobiegających manipulowaniu danymi (ang. data poisoning);
- zaimplementowaniu metod zapobiegającym sprzężeniu zwrotnemu, rozumianemu jako przeprowadzenie procesu przez uczący się algorytm w oparciu o wadliwie zebrane dane, w efekcie czego dochodzi do wykreowania wyników coraz bardziej tendencyjnych.
Korzystanie z systemów sztucznej inteligencji a ochrona danych osobowych
Dane gromadzone podczas korzystania z systemów sztucznej inteligencji powinny być zarządzane zgodnie z odpowiednimi praktykami (bez wskazania, jakie mają być to praktyki). Jeśli informacje obejmują dane osobowe na potrzeby piaskownicy regulacyjnej (tzw. sandbox), ich przetwarzanie musi być realizowane z zachowaniem określonych zasad dotyczących, m.in. celu przetwarzania, monitorowania zagrożeń dla praw podstawowych, umieszczenia informacji w odizolowanym środowisku czy zakazu udostępniania tych danych innym osobom.
Warto zdawać sobie sprawę, że – przynajmniej na razie – narzędzia AI, które są powszechnie dostępne, nie zawsze gwarantują wystarczającego poziomu zabezpieczenia danych osobowych wprowadzanych jako dane wejściowe.
Jakie kary grożą za naruszenie przepisów rozporządzenia?
Zgodnie z przepisami rozporządzenia państwa członkowskie mają za zadanie wprowadzić system kar administracyjnych za naruszenie przepisów rozporządzenia nakładanych przez organ nadzorczy. Jakiej wysokości sankcji można oczekiwać?
- do 40 milionów euro lub do 7% całkowitego, światowego obrotu z ubiegłego roku obrotowego, jeśli naruszenia dopuszcza się przedsiębiorstwo w przypadku najpoważniejszych naruszeń (np. projektowanie AI z wykorzystaniem zakazanych praktyk);
- do 20 milionów euro lub do 4% całkowitego, światowego obrotu z ubiegłego roku obrotowego, jeśli naruszenia dopuszcza się przedsiębiorstwo, jeśli naruszenie dotyczy zarządzania danymi;
- do 10 milionów euro lub do 2% całkowitego, światowego obrotu z ubiegłego roku obrotowego, jeśli naruszenia dopuszcza się przedsiębiorstwo w przypadku pozostałych naruszeń;
- do 5 milionów euro lub do 1% całkowitego, światowego obrotu z ubiegłego roku obrotowego, jeśli naruszenia dopuszcza się przedsiębiorstwo, jeżeli naruszenie dotyczy przekazania nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikującym.
W jaki sposób AI ACT wpłynie na rynek?
Choć jest jeszcze zbyt wcześnie na wyciąganie wniosków z unijnej regulacji, już teraz można powiedzieć, że stawia ona przed uczestnikami rynku usług IT zupełnie nowe – i trudne do spełnienia – wymagania. Przy opracowywaniu oprogramowania wykorzystującego sztuczną inteligencję należy zachować szczególną ostrożność, co oznacza spowolnienie procesu tworzenia aplikacji, wydłużenie etapów testowych, a także znaczący wzrost kosztów całego procesu projektowania produktu cyfrowego.
Software house, który rozważa uzupełnienie zakresu usług o tworzenie systemów sztucznej inteligencji, powinien rozważyć skorzystanie z kompleksowej pomocy prawnej na etapie sporządzania umowy, projektowania założeń oprogramowania, a także nadzoru postprodukcyjnego. Kary wprowadzone rozporządzeniem są na tyle dotkliwe, że działanie na własną rękę w celu zyskania przewagi technologicznej to duże ryzyko.
Pytania i odpowiedzi
Dokumentację należy przygotować przed oddaniem oprogramowania do użytku lub wprowadzeniem do obrotu a także na bieżąco aktualizować. Szczegółowe wymagania w tym zakresie określa załącznik IV do rozporządzenia, który określa minimalny zakres informacji, jakie mają znaleźć się w dokumentacji.
Procedura zgodności dla AI wysokiego ryzyka jest wymagana. Właściwe oznakowanie CE można zamieścić, jeżeli produkt spełnia wymagania dotyczące wymogów stawianym systemom AI. Chodzi m.in. o opracowanie systemu zarządzania ryzykiem, zapewnienia integralności i bezpieczeństwa danych, sporządzenie dokumentacji technicznej czy zaimplementowanie mechanizmu rejestracji zdarzeń.
Zaufali nam: