Technologia deepfake rozwija się w zastraszającym tempie, a jednym z jej najciemniejszych zastosowań jest pornografia tworzona bez zgody osób przedstawianych na ekranie. Już w 2023 roku w sieci opublikowano ponad 95 tysięcy filmów pornograficznych stworzonych przy użyciu technologii deepfake. To wzrost aż o 550% w porównaniu z rokiem 2019. Jednocześnie aż 98% wszystkich deepfake’ów dostępnych online to właśnie pornografia . Liczby te pokazują skalę zjawiska, które wymyka się właśnie spod społecznej i prawnej kontroli. Mówimy już nie o jednostkowych przypadkach, lecz o masowej, zautomatyzowanej produkcji cyfrowej przemocy.
Stworzenie fałszywego filmu pornograficznego z wykorzystaniem czyjegoś wizerunku nie wymaga dziś specjalistycznej wiedzy, nakładów finansowych ani dostępu do zaawansowanych narzędzi. Wystarczy jedno w miarę wyraźne zdjęcie i często bezpłatne narzędzie dostępne online. Cały proces może zająć nawet pół godziny. Efekt? Tysiące materiałów wideo, które trafiają codziennie na platformy internetowe – często bez świadomości czy zgody osób, które są w nich przedstawione.
Treści tego rodzaju nie funkcjonują na marginesie Internetu. Jak wynika z raportu „State of Deepfakes 2023”, przygotowanego przez organizację Home Security Heroes, aż na siedmiu z dziesięciu największych stron pornograficznych znaleźć można filmy stworzone z wykorzystaniem technologii deepfake. Na samych tylko witrynach tego typu materiały wygenerowały ponad 303 miliony odsłon. Mamy więc do czynienia z ogromnym rynkiem, który żeruje na przemocowym wykorzystywaniu cudzego wizerunku.
Problem, który może dotknąć każdego
W świadomości wielu osób pornografia deepfake funkcjonuje jako zjawisko dotyczące znanych twarzy. Powszechne jest przekonanie, że ofiarami tego rodzaju cyfrowej przemocy są przede wszystkim celebrytki, aktorki i influencerki – osoby przyzwyczajone do obecności w przestrzeni publicznej. Nie sposób zaprzeczyć, że to właśnie one najczęściej stają się celem. Jak wynika z raportu, aż 99% ofiar przedstawionych w deepfake pornografii to kobiety, a 94% z nich to osoby związane z branżą rozrywkową.
Ale to tylko część prawdy. Bo choć to właśnie znane osoby najczęściej pojawiają się w statystykach, dostępność technologii sprawia, że zagrożone są również zwykłe użytkowniczki (i użytkownicy) mediów społecznościowych.
– Nie potrzeba już popularności ani rozpoznawalności, by stać się ofiarą. Wystarczy publiczny profil na Instagramie, kilka zdjęć dostępnych w sieci i obecność w wyszukiwarce. Każda osoba, która dzieli się swoim wizerunkiem w Internecie, może zostać skopiowana i umieszczona w fałszywym, pornograficznym kontekście. Włączając w to, niestety, także dzieci, co dodatkowo podkreśla zagrożenia wynikające z sharentingu. A kiedy to już się wydarzy, niewiele da się zrobić, by zatrzymać rozprzestrzenianie się materiału – komentuje Kamil Sadkowski, analityk laboratorium antywirusowego ESET.
Powszechna obojętność wobec deepfake bierze się często z fałszywego poczucia bezpieczeństwa. Dopóki dotyczy to innych ludzi, łatwo to zignorować. Dopiero gdy problem dotknie kogoś bliskiego, zaczynamy reagować. Aż 73 procent Amerykanów zadeklarowało, że zgłosiłoby deepfake pornografię na policję tylko wtedy, gdy ofiarą byłaby osoba im bliska. To liczba, która mówi więcej o nas jako społeczeństwie niż o samym zjawisku – wskazuje bowiem na brak empatii wobec anonimowych ofiar i akceptację przemocy, dopóki nie wychodzi ona poza ekran.
Deepfake’owy biznes pornograficzny
Deepfake porn jest zjawiskiem powszechnym i coraz częściej zmonetyzowanym. Za jego rozwojem stoją konkretne platformy, fora, narzędzia i społeczności, które nie tylko udostępniają gotowe materiały, lecz także szkolą innych, jak je tworzyć. Wiele z nich działa jawnie, gromadząc materiały na popularnych portalach i serwisach hostingowych, gdzie ich obecność nie spotyka się z reakcją moderatorów.
Dobitnym przykładem tego mechanizmu jest historia ponad pięciu tysięcy modeli sztucznej inteligencji, które umożliwiają tworzenie realistycznych obrazów i filmów przedstawiających konkretne, rzeczywiste osoby – bez ich wiedzy i zgody. Wiele z tych modeli służyło wcześniej do generowania pornografii deepfake na platformie Civitai, popularnym serwisie do udostępniania narzędzi AI. Gdy pod naciskiem operatorów płatności Civitai zdecydowało się usunąć modele wykorzystywane do tworzenia nielegalnych lub nieetycznych treści, ich twórcy szybko zareagowali: zarchiwizowali zakazane pliki i przenieśli je na inną platformę – Hugging Face .
Hugging Face to serwis o znacznie szerszym zasięgu i sporej renomie w środowisku open source, służący do udostępniania modeli uczenia maszynowego. Mimo ogólnych etycznych zasad, platforma nie posiada jednoznacznych zapisów zakazujących hostowania modeli służących do tworzenia deepfake’ów pornograficznych. W efekcie użytkownicy zaczęli publikować je ponownie – często pod neutralnymi nazwami, celowo maskując ich prawdziwe zastosowanie.
– Przykład Hugging Face pokazuje, jak trudno zatrzymać krążenie niebezpiecznych narzędzi w przestrzeni cyfrowej. Gdy jedna platforma ulega presji i próbuje działać odpowiedzialnie, inna staje się mimowolnym ogniwem w łańcuchu przemocy. W praktyce oznacza to, że narzędzia do cyfrowego naruszania czyjejś cielesności są wciąż dostępne – wystarczy wiedzieć, gdzie ich szukać – komentuje Kamil Sadkowski.
Jak zapobiegać pornografii deepfake?
Choć skala i tempo rozwoju pornografii deepfake mogą budzić poczucie bezradności, rezygnacja nie jest jedynym możliwym scenariuszem. Zjawiska cyfrowej przemocy — nawet jeśli są rozproszone i trudne do uchwycenia — da się zatrzymać. Potrzebujemy jednak działań skoordynowanych, wielopoziomowych i prowadzonych z myślą zarówno o ofiarach, jak i o odpowiedzialności twórców oraz platform.
Po pierwsze, konieczna jest międzynarodowa współpraca w zakresie regulacji i egzekwowania odpowiedzialności platform internetowych. Technologie AI i serwisy hostujące modele działają ponad granicami państw, a prawa lokalne często nie nadążają za tempem rozwoju technologii. Bez wspólnych standardów — jasno określających, co jest naruszeniem, kto za nie odpowiada i jak szybko należy reagować — każda próba regulacji będzie miała charakter jedynie fragmentaryczny. Potrzebujemy wspólnych protokołów reagowania, a nie tylko gestów dobrej woli.
Po drugie, nie musimy czekać na nowe narzędzia prawne — wiele z nich już istnieje, ale są stosowane zbyt wolno, zbyt niechętnie lub zbyt wybiórczo. Prokuratura i policja często traktują zgłoszenia dotyczące deepfake’ów jako mało priorytetowe, a ofiary są odsyłane od instytucji do instytucji. Tymczasem wiele takich przypadków można zakwalifikować jako naruszenie dóbr osobistych, zniesławienie, nękanie, a w skrajnych sytuacjach nawet jako formę przemocy seksualnej. Potrzebne jest nie tyle nowe prawo, ile gotowość do egzekwowania tego istniejącego w świecie cyfrowym.
Kluczowe znaczenie ma także edukacja — i to na wszystkich poziomach.
Rodzice i szkoły muszą wiedzieć, jak rozmawiać z dziećmi o zagrożeniach związanych z udostępnianiem wizerunku oraz codziennych nawykach w sieci. Podobnie jak mycie zębów czy rąk ma zapobiec infekcjom przy chorobom, tak cyfrowa higienia może uchronić przed wieloma niebezpieczeństwami w internecie. Jak chronić prywatność i wizerunek w sieci?
• Silne, unikalne hasła z włączonym uwierzytelnianiem wieloskładnikowym wszędzie tam, gdzie to możliwe.
• Restrykcyjne ustawienia prywatności w social mediach. Publiczne profile są otwarte dla wszystkich, każdy ma dostęp do naszych zdjęć i treści, dlatego należy wybierać „profil prywatny”.
• Unikanie udostępniania wrażliwych informacji oraz zdjęć – np. bliskich czy wyraźnych kadrów twarzy – treści raz opublikowane w internecie zostają w nim na zawsze.
• Weryfikacja wirtualnych znajomych – nigdy nie wiemy kto jest „po drugiej” stronie i jakie ma intencje.
• Krytyczne podchodzenie do uprawnień, jakich żądają aplikacje – im więcej dostępów tym więcej szans na wyciek danych.
Z kolei firmy technologiczne powinny inwestować w narzędzia wykrywania treści generowanych przez AI i obowiązkowe etyczne przeszkolenia zespołów tworzących nowe modele. Państwo — zamiast reagować dopiero po fali medialnych oburzeń — powinno wspierać systemowe rozwiązania: infolinie dla ofiar, mechanizmy szybkiego zgłaszania treści, szkolenia dla funkcjonariuszy i sędziów.
Wreszcie — potrzebujemy zmiany kulturowej. Deepfake pornografia to nie jest niszowy problem. To zjawisko, które realnie krzywdzi coraz więcej osób. Dopóki będziemy traktować to jako dziwaczną ciekawostkę technologiczną, a nie formę przemocy, sprawcy będą działać bezkarnie. Dopóki będziemy się oburzać tylko wtedy, gdy cierpi ktoś nam bliski, system będzie milczał.
– Potrzebujemy wspólnych reguł gry – takich, które obejmą platformy działające globalnie i jasno wskażą granice odpowiedzialności. Musimy też zacząć egzekwować prawo, które już istnieje, zamiast udawać, że problem nie mieści się w obecnych kategoriach. I wreszcie: przestańmy mówić o tym zjawisku jak o technologicznym wyzwaniu – to przemoc, która wymaga reakcji na każdym poziomie: prawnym, społecznym i kulturowym – podkreśla Kamil Sadkowski.
O pornografii depfake trzeba mówić: w mediach, w szkołach, ale i przy kuchennym stole. Trzeba nazwać przemoc po imieniu i pokazać, że cyfrowe naruszenie granic to równie realne cierpienie, jak każde inne. A potem — budować system, który potrafi się temu przeciwstawić: prawny, technologiczny i społeczny. W przeciwnym razie ofiar będzie coraz więcej. I będą coraz bliżej nas.