COPIED Act, czyli nowa broń w walce z deepfake 

Magda Maruszczak, FORIGI
epoint

Deepfake, czyli fałszywe nagrania stworzone przy użyciu sztucznej inteligencji, stają się coraz większym problemem, wskazuje w komentarzu dla ISBtech Magdalena Maruszczak, prezes FORIGI.

W sieci krążą filmiki, na których znane osoby rzekomo wypowiadają szokujące rzeczy, a zdjęcia czy nagrania dźwiękowe manipulowane przez AI wprowadzają w błąd tysiące ludzi. W odpowiedzi na te zagrożenia amerykański projekt ustawy COPIED Act (Content Origin Protection and Integrity from Edited and Deepfaked Media Act) ma wprowadzić nowe standardy ochrony treści cyfrowych. Tylko czym jest COPIED Act?

COPIED Act to projekt ustawy, który ma na celu ochronę treści generowanych przez sztuczną inteligencję. Główną ideą jest umożliwienie twórcom – dziennikarzom, artystom, muzykom – kontroli nad swoimi dziełami i ochronę przed ich bezprawnym wykorzystaniem przez AI. W erze, w której deepfake stają się coraz trudniejsze do wykrycia, ochrona oryginalnych treści jest kluczowa.

Ustawa proponuje wprowadzenie specjalnych cyfrowych znaków wodnych, czyli „informacji o pochodzeniu treści”. Dzięki nim można odróżnić oryginał od podróbki stworzonej przez AI. Co więcej, znaki te mają być na tyle zaawansowane, że ich usunięcie lub manipulacja będą praktycznie niemożliwe. W efekcie, jeżeli ktoś próbowałby zmienić czyjeś dzieło, np. film czy artykuł, byłoby to natychmiast wykrywalne.

Deepfake na celowniku  

COPIED Act to nie jedyna inicjatywa mająca na celu walkę z deepfake’ami. W Europie problem ten został uregulowany w ramach AI Act, który obowiązuje od 1 sierpnia 2024 roku. AI Act również wymaga, aby wszelkie materiały stworzone lub zmanipulowane przez sztuczną inteligencję były wyraźnie oznaczone. Dzięki temu odbiorcy mają świadomość, że mają do czynienia z treścią sztucznie wygenerowaną, a nie autentyczną.

Europejskie podejście do regulacji deepfake’ów skupia się na przejrzystości i odpowiedzialności. Firmy i osoby, które nie stosują się do tych zasad, mogą zostać ukarane grzywną nawet do 15 milionów euro lub 3% rocznego światowego obrotu. To spore kwoty, które mają działać odstraszająco i zmusić do przestrzegania nowych przepisów.

Warto pamiętać, że w kwestii regulacji sztucznej inteligencji, Unia Europejska wyróżnia się bardzo kompleksowym podejściem. AI Act wymaga od państw członkowskich klasyfikacji każdego systemu AI na podstawie poziomu ryzyka: od niedopuszczalnego do minimalnego. W przeciwieństwie do Stanów Zjednoczonych, które skupiają się na ochronie praw twórców poprzez ustawy takie jak COPIED Act, UE stawia na proaktywną regulację i ścisłe kategoryzowanie zagrożeń.

Mimo różnic, oba podejścia – zarówno amerykańskie, jak i europejskie – dążą do tego samego celu: zapobieżenia nadużyciom i dezinformacji. Wspólnym mianownikiem jest tu ochrona społeczeństwa przed szkodliwym wpływem fałszywych treści generowanych przez AI. To pokazuje poważne trendy – globalnie chcemy walczyć z nielegalnymi treściami w internecie.

Czy deepfake to poważny problem? 

Deepfake są coraz bardziej zaawansowane i trudne do odróżnienia od autentycznych materiałów. Mogą prowadzić do dezinformacji, manipulacji opinią publiczną, a nawet szantażu czy oszustw. Wprowadzanie odbiorców w błąd jest szczególnie niebezpieczne w kontekście spraw związanych z polityką, gdzie fałszywe materiały mogą wpłynąć na wyniki wyborów czy wywołać napięcia społeczne. W odpowiedzi na te zagrożenia, zarówno rządy, jak i sektor prywatny, inwestują w rozwój technologii umożliwiających automatyczne wykrywanie deepfake’ów. Rośnie także świadomość społeczna – ludzie stają się coraz bardziej świadomi, że to, co widzą w sieci, nie zawsze musi być prawdą.

Obserwujemy rosnącą liczbę inicjatyw mających na celu walkę z deepfake. Tak jak wspomniałam, kluczowym elementem tych regulacji jest wymóg oznaczania deepfake’ów jako treści fałszywych. Dzięki temu odbiorcy będą mogli świadomie podchodzić do materiałów, które oglądają czy słuchają.

COPIED Act to ważny krok w walce z problemem deepfake’ów i ochronie oryginalnych treści w erze cyfrowej. Razem z unijnym AI Act tworzy fundament dla globalnych działań mających na celu zapobieganie dezinformacji i manipulacji. Zakładamy, że  technologia deepfake'ów będzie się stale doskonalić i rozwijać, dlatego tak  istotne staje się tworzenie skutecznych mechanizmów prawnych i technologicznych, które pozwolą zachować i budować zaufanie do informacji w sieci.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments