Deepfake to potężna technologia AI umożliwiająca tworzenie fałszywych zdjęć oraz filmów. Jest coraz tańsza i prostsza w obsłudze. Narzędzie, które w domyśle miało ułatwiać użytkownikom kreowanie profesjonalnych obrazów wykorzystywanych do pracy czy zabawy, dziś służy przede wszystkim do tworzenia fejkowej pornografii z udziałem gwiazd, ale także zwykłych osób. Niestety, to, co spotkało Taylor Swift, dotyczy coraz więcej dziewczyn i kobiet. O tym, co można zrobić, gdy Twój wizerunek zostanie wykorzystany bezprawnie, rozmawiamy z ekspertkami z Fundacji IT Girls.
Pod koniec stycznia serwis X (znany wcześniej jako Twitter) zalały zdjęcia Taylor Swift wygenerowane przez sztuczną inteligencję. W ciągu kilkunastu godzin fałszywe zdjęcia pornograficzne przedstawiające popularną amerykańską piosenkarkę, które pojawiły się na jednym z kont, wyświetlono ponad 47 milionów razy. Choć X zawiesił kilka kont, które rozpowszechniały fake’owe materiały łamiące w oczywisty sposób regulamin serwisu, zdjęcia zostały udostępnione w innych mediach społecznościowych. Może się okazać, że ich całkowite usunięcie z wirtualnej przestrzeni nie będzie już możliwe.
„Technologia deepfake stała się prosta w obsłudze, jej ofiarą może paść każda osoba, której wizerunek jest w miarę publiczny (potrzeba dobrych jakościowo zdjęć twarzy, najlepiej, żeby to były filmy, dzięki czemu algorytm może się nauczyć mimiki, dlatego łatwym “łupem” są youtuberzy czy aktorzy)” – napisał w ubiegłym roku na Facebooku Wojtek Kardys, specjalista digital marketingu.
DEEPFAKE PORN SPOTYKA KOBIETY NA CAŁYM ŚWIECIE
Nie od dziś wiadomo, że internet i rozwój technologii ułatwiają stosowanie przemocy seksualnej w wirtualnej przestrzeni, chociażby poprzez rozpowszechnianie tzw. revenge porn (udostępianie w sieci, w ramach zemsty, intymnych zdjęć lub nagrań) czy wysyłanie “dickpicków” (niechcianych zdjęć penisów), ale według ekspertów to właśnie technologia deepfake została opracowana w konkretnym celu – kreowaniu fałszywych filmów i obrazów o charakterze pornograficznym.
W 2018 roku w popularnym serwisie Reddit pojawiły się zmanipulowane zdjęcia pornograficzne z udziałem Scarlett Johansson i Natalie Portman. Wraz z rozwojem technologii deepfake i łatwym dostępem do aplikacji, które pozwalają błyskawicznie wygenerować fałszywe zdjęcia czy obrazy, ofiarami nadużyć stają się nie tylko artystki czy aktorki, ale również zwykłe kobiety. A pojawiające się w internecie fałszywe materiały coraz trudniej odróżnić od prawdziwych. W lutym 2023 roku znana amerykańska streamerka gamingowa QTCinderella poinformowała o tym, że jej twarz znalazła się w spreparowanym filmie pornograficznym. Według ekspertów to nowy sposób na stosowanie przemocy seksualnej wobec kobiet.
– Revenge porn i deepfake to poważne zagrożenia w świecie cyfrowym, które mogą mieć długotrwałe konsekwencje dla osób doświadczających tego rodzaju przemocy. Ważne jest, aby być świadomym ryzyka, zachować ostrożność i wiedzieć, jak reagować w przypadku wystąpienia takich sytuacji. Pamiętaj, że masz prawo do ochrony swojego wizerunku i prywatności, zarówno online, jak i offline – podkreślają ekspertki z Fundacji IT Girls.
Mimo destrukcyjnego wpływu technologii deepafake na kobiety, fałszywe filmy czy obrazy nadal są rozpowszechniane, a twórcy fejkowej pornografii zarabiają krocie.
CO MOGĘ ZROBIĆ, JEŚLI W SIECI POJAWIŁO SIĘ DEEPFAKE Z MOJĄ TWARZĄ
Firmie Sensity AI, która bada wykorzystanie deepfake’ów w pornografii udało się ustalić, że w 2021 r. ofiarą procederu padło co najmniej 100 tys. kobiet, w tym wiele nieletnich dziewcząt. W ubiegłym roku głośno było o sprawie nastoletnich chłopców z Wielkiej Brytanii, Hiszpanii czy USA, którzy za pomocą technologii deepfake przerabiali zdjęcia swoich koleżanek i rozpowszechniali je w internecie.
Niestety nie tylko w polskim prawie karnym wciąż brakuje przepisów (Unia Europejska dopiero pod koniec 2023 roku przygotowała ustawę „Akta w sprawie sztucznej inteligencji”, która wejdzie w życie dopiero za kilkanaście miesięcy), które regulowałyby stosowanie sztucznej inteligencji, pozwalały ofiarom nadużyć dochodzenie swoich praw i karały twórców fałszywej pornografii.
Na podstawie art. 191a Kodeksu karnego dowiadujemy się, że nagrywanie i rozpowszechnianie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody „podlega karze pozbawienia wolności od 3 miesięcy do lat 5”.
Na stronie dyzurnet.pl, na której działa zespół ekspertów Naukowej i Akademickiej Sieci Komputerowej można przeczytać, że treści, które znajdują się w internecie, mogą usunąć moderatorzy/administratorzy strony, a także właściciele domeny, na której ona się znajduje. Również dostawcy przestrzeni serwerowej (hostingodawcy) mogą zakończyć świadczenie usługi utrzymywania danej strony po otrzymaniu wiarygodnego zawiadomienia o bezprawnym charakterze treści się na niej znajdujących lub treści naruszających regulamin świadczenia usług.
FUNDACJA IT GIRLS RADZI, CO MOŻESZ ZROBIĆ W TAKIEJ SYTUACJI
Jeśli padłaś_eś ofiarą revenge porn lub deepfake, zgłoś to odpowiednim organom, takim jak policja lub specjalne jednostki zajmujące się cyberprzestępczością. Możesz skorzystać z przepisów cywilnych i karnych, które mają zastosowanie w konkretnych sytuacjach.
Pomoc możesz uzyskać na stronie Dyzurnet.pl. To zespół ekspertów NASK działający jako punkt kontaktowy do zgłaszania nielegalnych treści w internecie.
Skorzystaj z pomocy psychologa lub doradcy, aby poradzić sobie ze stresem i emocjonalnymi skutkami doświadczenia, np. możesz skontaktować się z osobami działającymi na Antyprzemocowej Linii Pomocy SEXEDPL od poniedziałku do soboty w godzinach 17-21, pod numerem 720 720 020.
Deepafake z udziałem Taylor Swift pokazał po raz kolejny, że prawo nadal nie nadąża za nowymi technologiami, zawodzą przepisy i moderacja na portalach społecznościowych. Ale jednocześnie udowodnił, że warto reagować na przemoc, do której dochodzi w internecie. Kilka godzin po tym, jak zmanipulowane zdjęcia piosenkarki zaczęły krążyć po serwisie X, fani Taylor Swift opublikowali na portalu tysiące zdjęć artystki z hasztagami #ProtectTaylorSwift i #TaylorSwiftAI.
Tekst powstał przy współpracy Fundacji IT Girls.
Źródła: raport SensityAI / nytimes.com / theguardian.com