IPSICC

Ny lov i USA kriminaliserer hævnporno og deepfakes

Både kristne og humanitære grupper glæder sig over, at Donald Trump har underskrevet den tværpolitiske ”Take It Down Act”.

Rapporten ”Not a Fantasy: How the Pornography Industry Exploits Image-Based Sexual Abuse in Real Life”, der udkom den 13. maj, beskriver, hvordan pornoindustrien benytter billedbaseret seksuelt misbrug fra den virkelige verden.

I USA er det nu en forbrydelse at offentliggøre eller distribuere seksuelt eksplicit materiale af en person uden samtykke, og sociale medieplatforme og andre websteder skal fjerne sådanne billeder inden for 48 timer efter anmeldelsen.

Det er kernen i den tværpolitiske ”Take It Down Act”, som præsident Donald Trump underskrev den 19. maj. Loven, der er blevet støttet af førstedame Melania Trump og organisationer, der kæmper imod seksuelt misbrug, hilses også velkommen fra kristne grupper. Ifølge Christianity Today kriminaliserer loven offentliggørelse af intime billeder uden samtykke, herunder AI-genereret indhold, ofte kaldt ”deepfake-pornografi”, samt videobilleder og fotografier, der enten er skabt uden motivets samtykke eller distribueret uden et sådant samtykke.

Overtrædelse af Take it Down Act kan medføre fængselsstraffe på op til tre år, hvis ofrene er under 18 år, og op til to år for forbrydelser mod voksne – foruden bøder, fastslår loven.

”Vold mod Imago Dei”

I en erklæring offentliggjort på sociale medier fastslog sydstatsbaptisternes Ethics & Religious Liberty Commission, at de i høj grad bifalder lovforslaget. ”Fordi pornografi er en forvrængning af seksualiteten som Guds gave, et voldeligt angreb på imago Dei (Gud-billedligheden, red.) og en nedbrydende plage for enkeltpersoner, familier, kirker og samfundet, vil vi fortsat kæmpe for politikker, der holder dette materiale væk fra vores offentlige rum,” hedder det i erklæringen.

Skader mange mindreårige

Billedbaseret seksuelt misbrug rammer stadig flere mennesker, og pornoindustrien forstærker misbruget, fastslår vagthundsgrupper. En undersøgelse offentliggjort i marts viste, at 1 ud af 8 unge personligt kendte en person under 18 år, der var blevet udsat for deepfake-porno, eller kendte en person, der havde brugt deepfake-teknologi mod en anden mindreårig. Underskrivelsen foregik på Det Hvide Hus’ græsplæne, hvor den blev overværet af blandt andre repræsentanter for Det Nationale Center for Seksuel Udnyttelse (NCOSE) og Parents Television and Media Council.

De to grupper bifaldt den nye lov, som er inspireret af Elliston Berry, der blev udsat for seksuelt misbrug baseret på deepfake-billeder, da hun var 14 år. ”Det ville være svært at overvurdere den utrolige effekt, denne nye lov vil have,” skrev NCOSE i en pressemeddelelse. Gruppen fastslår, at med ​​AI-værktøjer ”kan enhver blive offer for IBSA (billedbaseret seksuelt misbrug, red.) på få sekunder.”

Men nu der håb forude for ofrene, og Take it Down Act ligner ophavsretsloven, fastslog NCOSE. ”Billedbaseret seksuelt misbrug vil nu blive fjernet lige så hurtigt, som ophavsretligt beskyttet materiale, fx Disney-film, fjernes fra YouTube.” Næstformand for Parents Television and Media Council, Melissa Henson, pegede på, at alle – selv børn og teenagere, der ikke er online eller ikke bruger sociale medier – kan blive ofre for deepfake-porno.

Hun tilføjede i en pressemeddelelse: ”At være vidne til underskrivelsen af ​​lovforslaget sammen med familier, hvis børn har været ofre for deepfake-pornografi eller sextortion, var bittersødt, men det vil tjene som en stærk påmindelse om den forskel, folk kan gøre, når de taler for løsninger, der vil beskytte fremtidige generationer.”

Rapport om billedbaseret seksuelt misbrug

Trump underskrev loven i kølvandet på NCOSE’s rapport ”Not a Fantasy: How the Pornography Industry Exploits Image-Based Sexual Abuse in Real Life”, som udkom den 13. maj. Rapporten giver et overblik over pornografiens globale udnyttelse af billedbaseret seksuelt misbrug. NCOSE definerer billedbaseret seksuelt misbrug som ”en krænkelse af personer, der omfatter tyveri, skabelse og distribution af seksuelt eksplicit materiale uden de afbildede personers utvetydige samtykke eller manipulation af ikke-eksplicit materiale med det formål at gøre det pornografisk.”

NCOSE inkluderer i definitionen distribution uden samtykke af seksuelt eksplicitte billeder eller videoer, optaget seksuel vold, videovoyeurisme og skabelse eller distribution af AI-genereret forfalsket pornografi uden samtykke.