I afsnit 1:2 af Vågn lidt op! med titlen “Enden på DeepFake-porno?” dykker vært Svala Sigfusardottir ned i det voksende problem med deepfake-porno – falske nøgenbilleder og pornografiske videoer skabt ved hjælp af kunstig intelligens, ofte uden samtykke fra de afbildede personer.
Hovedtemaer i episoden
- Afsløring af en nøglefigur: Journalist Daniel Greneaa Hansen fra TjekDet diskuterer en nylig afsløring af en central aktør i deepfake-miljøet og overvejer, om dette kan føre til ændringer i udbredelsen og accepten af deepfake-porno.
- Juridiske perspektiver: Advokat Miriam Michaelsen fra ReThink Law og forperson i Medierådet for børn og unge belyser de juridiske udfordringer ved at bekæmpe deepfake-porno og behovet for opdateret lovgivning.
- Personlige erfaringer: Influencer og Twitch-streamer Marie Watsen deler sine oplevelser med at være offer for deepfake-porno og diskuterer de følelsesmæssige og professionelle konsekvenser.
- AI og etik: Episoden undersøger, hvordan AI-teknologi muliggør skabelsen af deepfake-porno, og hvilke etiske spørgsmål dette rejser i forhold til samtykke og digitalt privatliv.
Episoden giver et indblik i de komplekse problemstillinger omkring deepfake-porno, herunder teknologiske, juridiske og personlige aspekter, og stiller spørgsmålet om, hvorvidt vi nærmer os en ende på denne form for digital krænkelse.
Du kan lytte til episoden her: https://radio4.dk/podcasts/vaagn-lidt-op/1-2-enden-p-deepfake-porno
Episoden er sympatisk i sit ønske om at sætte fokus på et teknologisk komplekst fænomen – men alligevel halter analysen, især hvis man ser med feministiske briller.
Hvad mangler?
- Ingen egentlig magtanalyse: Vi hører om teknologien og om det juridiske kaos, men ingen diskuterer, hvorfor deepfake-porno næsten altid rammer kvinder. Det bliver fremstillet som en generel krænkelsesform snarere end et kønnets våben.
- Ingen diskussion af patriarkat eller seksualiseret vold: Deepfake-porno reduceres til “krænkelse” og “teknologisk udfordring”, frem for at blive adresseret som en fortsættelse af gamle, kønspolitiske magtstrukturer i ny digital form.
- Mangel på aktivistiske eller feministiske perspektiver: Hvor er stemmerne fra organisationer som Digitalt Ansvar, Everyday Sexism Project, eller UN Women’s arbejde med tech-vold mod kvinder?
Når man taler om overgreb uden at tale om vold
Nogle ville nok sidde tilbage og tænke: “Hvor er analysen af magt, af køn, af voldskultur?” Når deepfake-porno rammer kvinder i høj grad, og når AI gør det muligt at skalere seksuel kontrol og ydmygelse, så er det ikke bare et “retligt tomrum” – det er en form for kønnet teknologi-vold.
Podcasten tager ikke stilling. Den beskriver, men problematiserer ikke. Den stiller spørgsmål, men undgår de svære svar.
Trods den personlige historie, glider samtalen hurtigt over i jura og teknologi. Det er som om, at vi kun må forstå deepfake-porno som:
- Et “etisk dilemma”,
- En “retlig gråzone”, eller
- En “udfordring i AI’s tidsalder”.
Men hvor er forståelsen af det som en form for kønnet digital vold? Hvor er anerkendelsen af, at det er kvinder, der rammes næsten eksklusivt, og at det ikke er tilfældigt? At deepfake-porno i langt de fleste tilfælde handler om at seksualisere, ydmyge og kontrollere kvinder, ofte offentligt, ofte med det formål at gøre dem tavse?
Dette er, som Soraya Chemaly skriver i Rage Becomes Her, ikke blot en krænkelse, men en del af en strukturel voldskultur, hvor teknologi fungerer som værktøj for patriarkalsk dominans.
Hvad gør distancen ved ofrene?
Når samtalen holdes på armslængde – når det juridiske og teknologiske fylder mere end det menneskelige og politiske – sker der en gen-traumatisering gennem objektivering.
Ofre reduceres til “cases” og “eksempler”, frem for aktive stemmer, der deltager i defineringen af problemet. Det reproducerer præcis det, deepfake-porno gør: fjerner kontrol og stemme fra kvinder, og gør dem til billeder, til ting.
Relavant litteratur, der burde have været inddraget:
- “The Right to Sex” af Amia Srinivasan – diskuterer hvordan seksualitet og samtykke bliver politiske værktøjer i kampen om magt.
- “Technically Wrong” af Sara Wachter-Boettcher – analyserer hvordan tech-verdenen systematisk overser marginaliserede grupper og viderefører skadelige normer.
- “Men Who Hate Women” af Laura Bates – dokumenterer, hvordan deepfake-porno og lignende fænomener er en del af manosfæren og antifeministisk propaganda.
Hvordan hænger det sammen med manosfæren og brokulturen?
Deepfake-porno er ikke en isoleret afvigelse – det er en symptomatisk handling i en større kultur, der spænder fra “harmløs” kvindefjendtlig humor til organiseret antifeminisme online.
Det er ikke tilfældigt, at platforme hvor deepfakes florerer, også er hjem for manosfæriske miljøer: Reddit, Discord, 4chan, Telegram. Det er i brokulturen, på YouTube, i incel-fora og i TikTok-trends, at kvinder gøres til mål. Denne praksis er en digital version af hævnpornografi og sexistisk vold, hvor teknologien blot gør ydmygelsen mere effektiv, anonym og storskala.
Konklusion: Når medier spørger “hvordan?” men glemmer at spørge “hvorfor?”
Podcasten gør et sympatisk og seriøst forsøg på at adressere deepfake-porno, men det grundlæggende feministiske blik mangler. Den tekniske og juridiske tilgang er vigtig – men uden at stille spørgsmål til magten, volden og kønnet, bliver det en analyse uden dybde.
Hvis vi virkelig vil gøre op med digital kønsvold, skal vi turde stille spørgsmål, der går ud over teknologien: Hvem får magt? Hvem mister kontrol? Hvem bliver tavs?
