Personal Data Protection Office of Poland

09/18/2025 | Press release | Distributed by Public on 09/18/2025 05:17

Potrzebne jest prawo chroniące ludzi przed negatywnym wpływem deepfake’ów

W polskim porządku prawnym niezbędne jest wprowadzenie przepisów prawa, które będą bezpośrednio odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake'ów, zapewniając ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw.

Taki postulat Mirosław Wróblewski, prezes UODO przedstawił w wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego. Prezes UODO zwraca uwagę, że obecne regulacje nie są dostosowane do specyfiki oraz możliwości technologii deepfake i treści generowanych przez sztuczną inteligencję, a także ich możliwości negatywnego odziaływania na ludzi.

Rozwój technologii deepfake mnoży zagrożenia

Zmiany prawne są konieczne, gdyż technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę.

Wśród zagrożeń, jakie niesie ze sobą technologia deepfake Prezes UODO wymienia wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwiaukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca.

Prezes UODO zwrócił uwagę, że deepfake'i mogą posłużyć również do preparowania dowodów sądowychorazstanowić zagrożenie dla bezpieczeństwa narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. Deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy.

Inny przykładem może być omijanie systemów bezpieczeństwa, takich jak systemy uwierzytelniania biometrycznego.

W to wszystko wpisuje się również kontekst różnych form ataków ze strony Federacji Rosyjskiej.

Prezes UODO przywołał też przypadki dotychczas zgłaszanych mu nadużyć spowodowanych stosowaniem technologii deepfake:

  • sprawa skargowa dotycząca zamieszczania na portalach społecznościowych fałszywych informacji odnoszących się do dziennikarki, osoby aktywnej publicznie - o jej śmierci, o tym, że została pobita przez męża czy że trafiła do więzienia. W tej sprawie Prezes UODO wydał na podstawie RODO zakaz przetwarzania danych na 3 miesiące (maksymalny termin przewidziany prawem), postępowanie w tej sprawie prowadzi irlandzki organ nadzorczy.
  • sprawa wygenerowania przez uczniów szkoły podstawowej fałszywego zdjęcia nagiej koleżanki. W tej sprawie Prezes UODO zawiadomił Policję o możliwości popełnienia przestępstwa, jednak Policja odmówiła zajęcia się sprawą.
  • sygnały od lekarzy, którzy padli ofiarą oszustów korzystających z technologii deepfake. Ich wizerunki i autorytet zostały wykorzystane w nieprawdziwych reklamach, w których medycy rzekomo zachęcali do przyjmowania określonych preparatów.

Prawo nie zapewnia dostatecznej ochrony

Obecne prawo tylko w pewnym obszarze chroni wykorzystywanie wizerunku. Przepisy ustawy o prawie autorskim i prawach pokrewnych wymagają zgody na rozpowszechnianie wizerunku, a Kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Z kolei RODO traktuje wizerunek jako dane osobowe wymagające ochrony. Jeśli weźmiemy pod uwagę Kodeks karny to wykorzystanie deepfake może wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a § 2), zmuszania do określonego zachowania (art. 191), rozpowszechnienia wizerunku nagiej osoby bez zgody (art. 191a), publicznej prezentacji lub produkcji, rozpowszechniania, przechowywania i posiadania treści pornograficznych (art. 202), zniesławienia lub zniewagi (art. 212 i 216) lub oszustwa (art. 286).

Prezes UODO zaznaczył, że żadna z wymienionych regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów. Tymczasem skutki tych nadużyć we współczesnym świecie zdominowanym przez internet i media społecznościowe są niezwykle dotkliwe, identyfikowanie twórców deepfake'ów często bardzo utrudnione, a procedury sądowe trwają zbyt długo.

Dlatego prezes Mirosław Wróblewski w swoim wystąpieniu do wicepremiera Krzysztofa Gawkowskiego zwrócił się o zainicjowanie prac, których celem będzie wprowadzenie w polskim porządku prawnym przepisów, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake'ów, a także zapewnią skuteczną ochronę danych osobowych.

Różne możliwości

Prezes UODO przedstawił przykładowe rozwiązania prawne niektórych państw dotyczące ochrony prawnej przed szkodliwymi deepfake'ami oraz plany zmian legislacyjnych, jakie mają niektóre z nich. Przykładowo Dania przygotowuje projekt nowelizacji prawa autorskiego, który doprowadziłyby do tego, że obywatele mogliby żądać usunięcia deepfake'ów z platform online oraz dochodzić odszkodowania za naruszenia.

Zasugerował też wzięcie pod uwagę zobowiązania platform technologicznych/internetowych/społecznościowych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania deepfake'ów. Zachęcił do wspierania działań oddolnych, polegających na wypracowaniu standardów oraz dobrych praktyk w zakresie weryfikacji autentyczności treści, oznaczania fałszywych materiałów czy reagowania na zgłoszenia użytkowników.

Zachęcamy do zapoznania się ze szczegółami wystąpienia Prezesa UODO, które zamieszczamy poniżej.

DPNT.413.31.2025

Personal Data Protection Office of Poland published this content on September 18, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 18, 2025 at 11:17 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]