Syntetyczne treści o charakterze seksualnym – technologia przemocy?

W dobie generatywnej sztucznej inteligencji każdy może stać się ofiarą cyfrowej przemocy.

Loading the Elevenlabs Text to Speech AudioNative Player…

Wystarczy kilka publicznie dostępnych zdjęć, by stworzyć realistyczny, lecz fałszywy materiał pornograficzny. Problem niekonsensualnych treści intymnych w formie deep fakes dotyka przede wszystkim kobiet. Tymczasem prawo karne nie nadąża za rozwojem technologicznym, co ogranicza możliwość dochodzenia sprawiedliwości przez ofiary – takie wnioski płyną z raportu Fundacji Obserwatorium Demokracji Cyfrowej nt. deep fakes i przemocy na tle seksualnym przygotowanego przez Mateusza Łabuza, prof. Mikołaja Małeckiego i dr Karolinę Manię.

Fałszywe nagrania, prawdziwe szkody

Deep fakes to w dużym uproszczeniu wygenerowane lub zmanipulowane przez sztuczną inteligencję materiały audio lub wizualne, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, a które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe. Choć zazwyczaj są kojarzone z dezinformacją o charakterze politycznym, na dużą skalę są wykorzystywane do tworzenia niekonsensualnych treści pornograficznych. Powszechnie takie materiały nazywa się deep porn, choć bardziej wskazane byłoby posługiwanie się terminem „niekonsensualnych syntetycznych treści abuzywnych o charakterze seksualnym”, by zwrócić uwagę na brak zgody przedstawianej osoby na wykorzystanie jej wizerunku oraz aspekt przemocy. 

Według statystyk, deep porn stanowi aż 98% wszystkich deep fakes w formie wideo. Niemal w stu procentach przypadków ofiarami ataków padają kobiety, co prowadzi do tysięcy indywidualnych tragedii i ma negatywne konsekwencje społeczne i polityczne. Często ofiarami ataków stają się osoby zajmujące eksponowane stanowiska. W USA na 26 przypadków ataków na członków i członkinie Kongresu, w aż 25 z nich ofiarami padły kobiety. Deep fakes są wykorzystywane do piętnowania, dyskredytowania i uciszania ofiar, co w konsekwencji zagraża udziałowi (przede wszystkim) kobiet w życiu publicznym. Nie jest to jednak bezwzględna reguła – sprawcy chętnie posługują się także wizerunkiem osób, które nie sprawują funkcji publicznych, co sprawia, że właściwie każdy może paść ofiarą niekonsensualnego wykorzystania wizerunku.  

Hiperrealizm i „rozbieranie” fotografii

Pierwsze deep fakes tworzone w 2017 r. były nieodłącznie związane z niekonsensualną pornografią. Twarze popularnych celebrytek „nakładano” na wcześniej zarejestrowane filmy porno, które następnie były udostępniane w Internecie. Już to powinno było się stać sygnałem ostrzegawczym, który jako społeczeństwo zwyczajnie zignorowaliśmy.

W ciągu ostatnich ośmiu lat jakość syntezy z wykorzystaniem sztucznej inteligencji istotnie poszła do przodu, umożliwiając tworzenie niezwykle realistycznych zdjęć i nagrań. Przerażająca jest łatwość, z jaką można wygenerować tego rodzaju materiały – dostępne darmowe aplikacje umożliwiają „rozbieranie” zdjęć kobiet jednym kliknięciem, niektóre samodzielnie pobierają je z mediów społecznościowych. W wielu krajach (chociażby w Hiszpanii) opinią publiczną wstrząsnęły przypadki wiktymizacji dziewczynek przez ich rówieśników – ofiary były nawet szantażowane przez sprawców, którzy grozili ujawnieniem fałszywych fotografii, żeby wymusić na dziewczynkach określone zachowania. W Korei Południowej powstał z kolei swoisty system wymiany rozbieranych zdjęć, które krążyły na zamkniętych grupach i były przesyłane przez szyfrowane komunikatory.

Hiperrealizm wizualizacji nie zawsze jest konieczny. Już sam fakt wykorzystania cudzego wizerunku do celów pornograficznych narusza integralność cielesną i psychologiczną ofiary. Skutki dla ofiar są dalekosiężne: od stanów lękowych i depresji po myśli samobójcze. Wiele poszkodowanych kobiet rezygnuje z aktywności zawodowej i społecznej, obawiając się kolejnych ataków, a ich wstrząsające relacje potwierdzają fatalne psychologiczne konsekwencje ataków. Co gorsza, wciąż panuje przekonanie, że „to tylko kreacje sztucznej inteligencji”, a sprawcy rzadko ponoszą konsekwencje.

Prawo nie nadąża za technologią

Nie jest zaskoczeniem, że prawo nie nadąża za dynamicznym rozwojem technologii. Byłoby to wygodne wytłumaczenie dla braku odpowiednich przepisów odnoszących się do deep fakes, gdyby nie fakt, że deep porn to problem znany od lat, lecz konsekwentnie pomijany w debacie na temat negatywnych skutków rozwoju sztucznej inteligencji. 

Obecne regulacje prawne w Polsce nie chronią skutecznie ofiar deep porn. Kodeks karny penalizuje rozpowszechnianie prawdziwych materiałów intymnych bez zgody ofiary (art. 191a k.k.), ale nie odnosi się wprost do treści generowanych przez sztuczną inteligencję. Ściganie sprawców – samo w sobie trudne ze względu na ich anonimowość – nie znajduje klarownej podstawy prawnej, a w doktrynie wskazuje się na trudności z kwalifikacją i niuanse w sformułowaniu obowiązujących przepisów. Posługiwanie się przepisami dotyczącymi ochrony wizerunku także jest niewystarczające. Wszystko to utrudnia dochodzenie sprawiedliwości i może być nawet czynnikiem sugerującym sprawcom potencjalną bezkarność. 

Przeciwdziałanie przemocy względem kobiet 

Problem, z dużym opóźnieniem, dostrzegła Unia Europejska. Przyjęta w 2024 r. Dyrektywa w sprawie zwalczania przemocy wobec kobiet i przemocy domowej nakłada na państwa członkowskie obowiązek penalizacji tworzenia i udostępniania deep porn. Tyle że Dyrektywa ma zostać wdrożona do czerwca 2027 r., co w praktyce legislacyjnej oznacza kolejne ponad dwa lata oczekiwania na rezultaty. To zdecydowanie zbyt długo. 

Choć nie znamy skali problemu w Polsce, możemy zakładać, iż będzie on stopniowo narastał, a przykłady z Korei Południowej czy USA, gdzie już można mówić o dziesiątkach tysięcy poszkodowanych, nie napawają optymizmem. Co więcej, wiele ofiar nie decyduje się na zgłoszenie szkody, zmagając się z poczuciem bezradności lub obawiając wtórnej wiktymizacji czy społecznego napiętnowania, przez co znaczna część przypadków może pozostawać w szarej strefie. 

Konieczne jest dostosowanie polskiego Kodeksu karnego do zmieniającej się rzeczywistości technologicznej i nowych form przestępstw. Wzorem do naśladowania może być w tym wypadku Wielka Brytania, która prowadzi szeroko zakrojone działania prawne i pozaprawne na rzecz polepszenia sytuacji ofiar cyberprzemocy o charakterze seksualnym. Wprowadzenie jednoznacznych przepisów byłoby nie tylko silniejszym fundamentem dla kwalifikacji prawnej nagannych zachowań, ale i mocnym sygnałem dla społeczeństwa, w tym samych ofiar, że tego typu zachowania nie będą tolerowane. Sprawcy z kolei straciliby poczucie bezkarności.

Przepisy prawa karnego to zaledwie punkt wyjścia. Zmianom prawnym powinny towarzyszyć szeroko zakrojone kampanie edukacyjne, które uświadomią społeczeństwu wagę problemu i jego konsekwencje. Konieczne jest także podnoszenie świadomości organów ścigania i pracowników systemu sądownictwa, jak również zwiększanie zdolności technologicznych odpowiednich służb, by mogły skuteczniej identyfikować szkodliwe treści oraz ich twórców. Ofiary deep porn mogłyby zostać objęte pomocą psychologiczną i prawną, by lepiej radzić sobie z traumą. 

Platformy cyfrowe także odgrywają istotną rolę w kształtowaniu przemysłu cyberprzemocy. Przykład skandalu z syntetycznymi intymnymi obrazami przedstawiającymi piosenkarkę Taylor Swift, które w 2024 r. przez wiele godzin pozostawały dostępne na X i zostały wyświetlone kilkadziesiąt milionów razy, pokazuje, że obecne mechanizmy moderacji treści są niewystarczające. Odpowiednie regulacje nakładające na platformy cyfrowe obowiązek szybkiego reagowania i usuwania szkodliwych treści już istnieją, muszą być jednak skuteczniej egzekwowane. Zwłaszcza gdy idzie o tak fundamentalną kwestię, jak ochrona przed przemocą na tle seksualnym. 

Nie przespać kolejnych ośmiu lat

Deep porn to nie zabawa cudzym wizerunkiem. To forma cyberprzemocy, która wymaga natychmiastowej reakcji. W tym wypadku deep fakes stały się narzędziem upokarzania, szantażu i zadawania cierpienia. Przespaliśmy ostatnie osiem lat, nie reagując na wyraźne sygnały związane z kierunkami rozwoju technologii i statystykami. Ochrona ofiar nie może być odkładana na później – każdy tydzień zwłoki, zarówno w przestrzeni prawnej jak i pozaprawnej, to kolejne zniszczone życia i wiele cichych, często niedostrzegalnych przez społeczeństwo dramatów. 

Ekspert Fundacji Obserwatorium Demokracji Cyfrowej i analityk Instytutu Badań nad Pokojem i Polityką Bezpieczeństwa na Uniwersytecie w Hamburgu (IFSH). Wykłada cyberbezpieczeństwo, sztuczną inteligencję i ochronę przed dezinformacją na krakowskich uniwersytetach. Jego główne zainteresowania badawcze obejmują syntetyczne media i zagrożenia kognitywne.

Podziel się

Może Cię zainteresować