09/18/2025 | Press release | Distributed by Public on 09/18/2025 05:17
W polskim porządku prawnym niezbędne jest wprowadzenie przepisów prawa, które będą bezpośrednio odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake'ów, zapewniając ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw.
Taki postulat Mirosław Wróblewski, prezes UODO przedstawił w wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego. Prezes UODO zwraca uwagę, że obecne regulacje nie są dostosowane do specyfiki oraz możliwości technologii deepfake i treści generowanych przez sztuczną inteligencję, a także ich możliwości negatywnego odziaływania na ludzi.
Rozwój technologii deepfake mnoży zagrożenia
Zmiany prawne są konieczne, gdyż technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę.
Wśród zagrożeń, jakie niesie ze sobą technologia deepfake Prezes UODO wymienia wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwiaukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca.
Prezes UODO zwrócił uwagę, że deepfake'i mogą posłużyć również do preparowania dowodów sądowychorazstanowić zagrożenie dla bezpieczeństwa narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. Deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy.
Inny przykładem może być omijanie systemów bezpieczeństwa, takich jak systemy uwierzytelniania biometrycznego.
W to wszystko wpisuje się również kontekst różnych form ataków ze strony Federacji Rosyjskiej.
Prezes UODO przywołał też przypadki dotychczas zgłaszanych mu nadużyć spowodowanych stosowaniem technologii deepfake:
Prawo nie zapewnia dostatecznej ochrony
Obecne prawo tylko w pewnym obszarze chroni wykorzystywanie wizerunku. Przepisy ustawy o prawie autorskim i prawach pokrewnych wymagają zgody na rozpowszechnianie wizerunku, a Kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Z kolei RODO traktuje wizerunek jako dane osobowe wymagające ochrony. Jeśli weźmiemy pod uwagę Kodeks karny to wykorzystanie deepfake może wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a § 2), zmuszania do określonego zachowania (art. 191), rozpowszechnienia wizerunku nagiej osoby bez zgody (art. 191a), publicznej prezentacji lub produkcji, rozpowszechniania, przechowywania i posiadania treści pornograficznych (art. 202), zniesławienia lub zniewagi (art. 212 i 216) lub oszustwa (art. 286).
Prezes UODO zaznaczył, że żadna z wymienionych regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów. Tymczasem skutki tych nadużyć we współczesnym świecie zdominowanym przez internet i media społecznościowe są niezwykle dotkliwe, identyfikowanie twórców deepfake'ów często bardzo utrudnione, a procedury sądowe trwają zbyt długo.
Dlatego prezes Mirosław Wróblewski w swoim wystąpieniu do wicepremiera Krzysztofa Gawkowskiego zwrócił się o zainicjowanie prac, których celem będzie wprowadzenie w polskim porządku prawnym przepisów, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake'ów, a także zapewnią skuteczną ochronę danych osobowych.
Różne możliwości
Prezes UODO przedstawił przykładowe rozwiązania prawne niektórych państw dotyczące ochrony prawnej przed szkodliwymi deepfake'ami oraz plany zmian legislacyjnych, jakie mają niektóre z nich. Przykładowo Dania przygotowuje projekt nowelizacji prawa autorskiego, który doprowadziłyby do tego, że obywatele mogliby żądać usunięcia deepfake'ów z platform online oraz dochodzić odszkodowania za naruszenia.
Zasugerował też wzięcie pod uwagę zobowiązania platform technologicznych/internetowych/społecznościowych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania deepfake'ów. Zachęcił do wspierania działań oddolnych, polegających na wypracowaniu standardów oraz dobrych praktyk w zakresie weryfikacji autentyczności treści, oznaczania fałszywych materiałów czy reagowania na zgłoszenia użytkowników.
Zachęcamy do zapoznania się ze szczegółami wystąpienia Prezesa UODO, które zamieszczamy poniżej.
DPNT.413.31.2025