Czym jest deepfake?
Mianem deepfake’a określa się manipulację obrazu, dźwięku albo obrazu i dźwięku powstałą przy użyciu techniki sztucznej inteligencji określanej jako uczenie głębokie (ang. deep learning). Z technicznego punktu widzenia narzędzia do deepfake’u wykorzystują dwa rodzaje algorytmów – określanych jako generator oraz dyskryminator, które razem tworzą GAN (ang. generative adversarial networks), czyli generatywne sieci współzawodniczące. To właśnie GAN jest rdzeniem takich aplikacji, jak Lensa AI, Deepfakes Web czy Reface.
Zadaniem generatora jest tworzenie cyfrowego obrazu lub dźwięku, a następnie sprawdzenie za pomocą dyskryminatora, czy wytwór jest prawdziwy czy fałszywy (zrobiony w technologii deepfake). Za każdym razem, kiedy dyskryminator udzieli odpowiedzi, taka informacja zwrotna jest wykorzystywana, aby usprawnić deepfake. Proces jest przeprowadzany tak długo, aż autor uzna, że oba obrazy – pierwotny i wygenerowany przez AI są praktycznie nie do rozróżnienia co generuje potencjalne zagrożenia jeśli chodzi o wykorzystanie technologii za pomocą technologii deepfake. Technologia deepfake pozwala na generowanie szkodliwych treści dla znanych osób czy nawet kradzieży tożsamości i innych fałszywych treści lub zmanipulowanych treści wraz z rozwojem technologii deepfake i uczenia maszynowego z wykorzystaniem deepfake w miarę rozwoju technologii i głębokie uczenie jako rodzaj uczenia maszynowego wykorzystywanego przez sztuczną inteligencję.
Początkowo technologia deepfake była wykorzystywana przede wszystkim w branży rozrywkowej. Obecnie nie ma przeszkód, aby za pomocą sztucznej inteligencji sfałszować rozmowę telefoniczną, zdjęcie czy nagranie video pochodzące z kamer, czyli typowe dowody wykorzystywane w sprawach prawniczych. Nietrudno wyobrazić sobie też stworzenie fikcyjnego wystąpienia prezesa spółki giełdowej, który wygłasza kontrowersyjne oświadczenie, na podstawie którego akcjonariusze podejmują pochopne decyzje.
Problem deepfake’a dostrzegł także unijny ustawodawca. Okazuje się, że obecna technologia pozwala na tworzenie na tyle podobnych obrazów i dźwięków, że często nawet osoby dorosłe, które wiedzą, czego można spodziewać się po materiale znalezionym w sieci mają problem z jego odróżnieniem. Problem staje się znacznie większy w przypadku, kiedy adresatami depfake’a stają się przedstawiciele grup szczególnie podatnych na manipulacje, jak dzieci czy osoby w podeszłym wieku. Aby sprostać rodzącym się wyzwaniom w nowym rozporządzeniu AI Act wprowadzono pierwszą regulację, która bezpośrednio odnosi się do zagadnienia transparentności AI.
W jaki sposób AI Act reguluje obowiązek transparentności sztucznej inteligencji
Rozporządzenie AI Act poświęca zagadnieniu deepfak’a tylko jeden ustęp jednego artykułu – art. 52 ust. 3 – a jego treść nie jest przesadnie rozbudowana. Przyjrzyjmy się strukturze całego przepisu bliżej.
Obowiązek informowania użytkowników o nawiązaniu relacji z AI
Przede wszystkim rozporządzenie nakłada na dostawców systemów sztucznej inteligencji obowiązek skonstruowania algorytmów w taki sposób, aby odbiorcy komunikatu będącymi osobami fizycznymi wiedzieli, że mają do czynienia z AI, a nie z drugim człowiekiem. Obowiązek ten jest wyłączony jedynie w dwóch przypadkach:
- okoliczności i kontekst korzystania z systemu na to wskazują (np. korzystanie ze sztucznej inteligencji zaimplementowanej w grze komputerowej);
- system AI został zatwierdzony z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń lub śledztw w związku z przestępstwami i ścigania ich sprawców.
Jeżeli jednak system AI został zaprojektowany z myślą o zgłaszaniu przestępstw i oddano go do społecznego użytku, obowiązek wyraźnego oznaczenia AI nadal obowiązuje.
Informowanie o identyfikacji biometrycznej
Transparentność AI obowiązuje także w przypadku systemów, których zadaniem jest rozpoznawania emocji lub kategoryzacja biometryczna, czyli ustalenie, czy dane osoby należą do grupy spełniające określone wcześniej kryteria. To pierwsze rozwiązanie wykorzystywane jest np. przy obsłudze klienta. Z kolei kategoryzacja biometryczna to jedna z technologii wykorzystywanych w medycynie oraz kryminalistyce.
Podobnie jak w poprzednim przypadku również tutaj odbiorca ma zostać poinformowany, że wchodzi w interakcję ze sztuczną inteligencją, chyba że software jest wykorzystywany do wykrywania przestępstw i zapobiegania nim.
W jaki sposób deepfake został uregulowany przez AI Act?
W art. 52 ust. 3 można odnaleźć regulację, która odnosi się wprost do zagadnienia deepfake’a. Został on zaadresowany do użytkowników AI, którzy generują obraz, dźwięk lub wideo w taki sposób, aby łudząco przypominały istniejące osoby, obiekty, miejsca, przedmioty lub zdarzenia, a także osób, które manipulują takimi obrazami lub treściami.
Za każdym razem, kiedy zmodyfikowana treść jest umieszczana w kontekście, w którym odbiorca może niesłusznie uznać ją za autentyczną lub prawdziwą, należy ujawnić, że materiał został wygenerowany lub zmanipulowany przez system AI. Można stwierdzić, że AI Act ustala pewien standard emitowania treści, którego należy przestrzegać, ale sam przepis w żaden sposób nie penalizuje treści, które zostały zniekształcone przez program.
Rozporządzenie wyraźnie wskazuje, że przy oznaczaniu materiału należy uwzględnić kontekst jego umieszczenia oraz oczekiwania co do modelowego odbiorcy. Nie zawsze łatwo będzie można znaleźć na to pytanie, ponieważ trzeba ustalić:
- gdzie zostanie opublikowany zmodyfikowany materiał;
- jaki jest charakter pozostałych treści w serwisie (czy deepfake wyraźnie się od nich odróżnia, ułatwiając zidentyfikowanie ingerencji);
- w jakim stopniu materiał przypomina rzeczywistość;
- kto jest typowym odbiorcą serwisu i jakie wyróżniają go kompetencje cyfrowe, wrażliwość czy podatność na tego rodzaju modyfikacje.
Modyfikacja, która dla jednej osoby będzie oczywista, innej może wydawać się nie do zauważenia i trudno postawić wyraźną granicę między obiema grupami odbiorców. Choć unijny ustawodawca ewidentnie stara się wyważyć interesy twórców i wolność słowa oraz ochronę praw podstawowych, w rezultacie przepis rodzi wiele wątpliwości, wymaga kazuistycznej oceny, a w rezultacie może stać się przyczyną wielu sporów sądowych. Z treści przepisu nie wynika też sposób w jaki ma zostać oznaczony materiał. Można jednak przypuszczać, że powinno to nastąpić w sposób wyraźny i jednoznaczny.
Wszelkie wątpliwości w omawianym zakresie warto konsultować z kancelarią prawną z doświadczeniem w zakresie nowych technologii tym bardziej, że nieprawidłowe wykorzystanie deepfake’a może naruszać znacznie więcej przepisów, niż wyłącznie AI Act.
Regulacja Deepfake’a w rozporządzeniu o usługach cyfrowych
AI Act nie jest jedynym rozporządzeniem, które odnosi się do problemu deep fake’a. Nawiązanie do niego znalazło się również w rozporządzeniu w sprawie jednolitego rynku usług cyfrowych (ang. Digital Services Act, DSA). Nakłada on na podmioty VLOP oraz VLOSE (ang. very large online platform; very large online search engine), czyli bardzo duże platformy internetowe i bardzo duże wyszukiwarki internetowe, obowiązek wprowadzenia mechanizmów mitygacji ryzyka i zarządzania nim.
Jednym z jego elementów – zgodnie z art. 35 ust. 1 pkt k – jest analiza zamieszczanych w serwisie treści pod kątem deepfake’a. Przepis nakłada obowiązek, aby każdą informację, w tym deepfake, można było rozróżnić dzięki widocznym oznaczeniom, gdy prezentuje się ją na interfejsach internetowych. Użytkownicy serwisów powinni otrzymać także możliwość łatwego zgłaszania informacji, która nie została oznaczona w określonych sposób.
Naruszenie obowiązku wskazanego w rozporządzeniu DSA może wiązać się z kara finansową w wysokości nawet 6% światowego obrotu przedsiębiorstwa.
Czy obecnie deepfake jest legalny w Polsce?
Choć sam deepfake jako zjawisko nie został uznany za sprzeczny z prawem, w rzeczywistości manipulacja dźwiękiem, obrazem lub animacją może doprowadzić do popełnienia czynu sprzecznego z ustawą. O czym warto pamiętać, publikując modyfikację istniejącego elementu rzeczywistości w sieci?
Naruszenie praw osobistych
Jako pierwszą można wskazać na możliwość naruszenia prawa do wizerunku lub głosu, ale także dobrego imienia lub czci osoby fizycznej, chronionego jako dobro osobiste na gruncie przepisów kodeksu cywilnego. Wykorzystanie tych dóbr bez zgody osoby, której one dotyczą uprawnia do żądania m.in. zaprzestania naruszenia oraz dochodzenia zadośćuczynienia.
Naruszenie praw autorskich
Deepfake może prowadzić do naruszenia praw autorskich przysługujących do określonego utworu, np. obrazu. Karalne jest samo wykorzystanie utworu bez zgody twórcy, ale także jego modyfikacja. Ustawa o prawie autorskim i prawach pokrewnych przewiduje w takich sytuacjach odpowiedzialność karną (nawet do 3 lat pozbawienia wolności), jak i cywilną, w tym możliwość dochodzenia odszkodowania za szkodę majątkową.
Deepfake a nieuczciwe praktyki rynkowe
Manipulacja obrazem rzeczywistości może wydawać się doskonałym sposobem na zdobycie klienteli, która zainteresuje się nierealnymi możliwościami produktu. Warto jednak pamiętać o przepisach ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym, która przewiduje kary na wszelkiego rodzaju zachowania przedsiębiorcy, które wprowadzają konsumenta w błąd za niedozwolone. Będą to wszystkie działania, które, chociażby potencjalnie, mogą doprowadzić do podjęcia przez przeciętnego konsumenta decyzji dotyczącej umowy, której inaczej by on nie podjął. W szczególności za wprowadzające w błąd uznaje się m.in.:
- rozpowszechnianie nieprawdziwych informacji;
- rozpowszechnianie prawdziwych informacji, ale w sposób, który może wprowadzić jej odbiorcę w błąd;
- działanie wprowadzające w błąd w zakresie produktów, opakowań, znaków towarowych czy nazw handlowych.
W takich przypadkach przedsiębiorca musi liczyć się z odpowiedzialnością cywilną, w tym odszkodowaniem, unieważnieniem zawartej umowy lub zaniechaniem praktyki (np. poprzez usunięcie z mediów społecznościowych całej kampanii reklamowej).
Oczywiście nie można także wykluczyć odpowiedzialności osoby, która sporządziła deepfake na gruncie prawa karnego, np. za zniewagę lub zniesławienie.
Czy można bezpiecznie korzystać z deepfake’a na potrzeby biznesowe?
Deepfake może być atrakcyjnym elementem wielu reklam służących budowaniu wizerunku przedsiębiorstwa. Przy jego konstruowaniu należy jednak upewnić się, że nie narusza on obowiązujących przepisów , a także, czy został należycie oznaczony (lub czy zachodzi taka potrzeba). Warunki te trzeba wyraźnie wskazać w umowie na stworzenie materiału marketingowego. Aby uniknąć wątpliwości co do tego, że firma wykorzystuje zmodyfikowany materiał, warto rozważyć wyraźne jego oznaczenie, niekiedy nawet tam, gdzie jest to wprost wymagane przez nowe przepisy.
Rozporządzenie AI Act jest kolejnym aktem prawnym, który może znaleźć zastosowanie w przypadku manipulacji treściami zamieszczanymi w mediach. Obecnie trudno przewidzieć czy przyczyni się on do większej transparentności usług świadczonych online, ale może okazać się pomocny przy odróżnianiu rzeczywistego materiału od fikcyjnego, dla zwiększenia świadomości konsumentów i ostrożności u przedsiębiorców.
Pytania i odpowiedzi
Rozporządzenie DSA nakłada ten obowiązek wyłącznie na podmioty VLOP i VLOSE, czyli platformy online, których zasięg wynosi minimum 10% liczebności społeczeństwa Unii Europejskiej. Określono ten pułap na 45 milionach aktywnych użytkowników usługi.
Artykuł 291 ustawy o prawie autorskim przewiduje taką możliwość, ale niezbędne jest ograniczenie modyfikacji treści do ram danego gatunku twórczości – parodii, pastiszu lub karykatury.
Tak, ponieważ wizerunek osoby fizycznej również uznaje się za daną osobową. Jego bezprawne pobieranie, przechowywanie, ale też modyfikowanie stanowi przetwarzanie danych osobowych i prowadzi do naruszenia przepisów rozporządzenia.
Zaufali nam: