EU’s forbud mod krænkende AI-systemer risikerer ikke at beskytte ofre godt nok
7.5.2026 07:00:00 CEST | Digitalt Ansvar | Pressemeddelelse
EU forhandler lige nu et nyt forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale uden samtykke. Digitalt Ansvar kalder forslaget banebrydende, men advarer sammen med syv andre organisationer i et nyt holdningspapir om, at forbuddet kan blive for snævert og derfor ikke beskytte ofre tilstrækkeligt.

Deepfake porno, eller manipuleret seksuelt materiale, som Digitalt Ansvar betegner det krænkende fænomen, er i dag et voksende problem pga. AI. Vi ser det med de såkaldte nudify-apps, hvor man hurtigt kan “afklæde” personer på billeder og videoer, hjemmesider dedikerede til den type indhold og tjenester, hvor man direkte kan bestille manipuleret seksuelt materiale af konkrete personer uden deres samtykke.
Derfor er det også positivt, at EU lige nu drøfter et forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale af identificerbare personer uden samtykke.
Forbuddet er et banebrydende skridt i forebyggelsen af digital vold og noget, Digitalt Ansvar længe har efterspurgt.
I et nyt holdningspapir opfordrer Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol dog EU’s institutioner til at præcisere det endelige forbud med en bekymring om, at det ellers vil efterlade væsentlige huller i beskyttelsen af potentielle ofre.
- For ofrene er skaden ikke mindre, bare fordi et billede ikke viser eksplicit nøgenhed eller er animeret. Hvis en genkendelig person bliver fremstillet seksualiseret uden samtykke, bør det være omfattet af forbuddet. Bliver forbuddet for snæver, risikerer det at svigte ofrene og opretholde status quo, siger Ask Hesby Holm, direktør i Digitalt Ansvar.
Seksualisering kræver ikke synlige kønsdele
Organisationerne peger i holdningspapiret især på to spørgsmål, der bør afklares i det endelige forbud: Hvad tæller som en seksuel krænkelse? Og hvordan skal det bevises, at der er samtykke til at fremstille manipuleret seksuelt materiale af en ægte person?
Rådets forhandlingsposition lægger nemlig op til, at forbuddet ikke skal omfatte “realistiske delvist nøgne fremstillinger, hvor intime kropsdele ikke afsløres”.
Det afgørende bør dog ikke være, om et AI-genereret billede eller video viser fuld nøgenhed eller intime kropsdele, men om en identificerbar person uden samtykke fremstilles i en seksuel kontekst, forklarer direktør i Digitalt Ansvar.
- En person kan godt blive seksualiseret gennem AI-genereret materiale uden at blive vist helt nøgen eller med kønsdele. For eksempel hvis en identificerbar person placeres i en overgrebsscene eller i en anden tydeligt seksualiseret situation, siger Ask Hesby Holm.
Samtykke må ikke reduceres til et flueben
Organisationerne advarer samtidig om, at det ikke må være nok, at en bruger bare klikker ja til, at der er samtykke.
Rådet lægger op til, at samtykke skal være “frit, specifikt, informeret, utvetydigt og eksplicit”, hvilket er positivt. Men det bør præciseres, at samtykket skal komme fra den identificerbare person, der fremstilles, ikke blot fra brugeren, der uploader eller genererer materialet, pointerer direktør i Digitalt Ansvar.
- Et flueben fra brugeren, der ønsker at generere manipuleret seksuelt materiale, må aldrig være nok. Samtykket skal komme fra den person, der fremstilles, og udbyderen af de her AI-tjenester skal have ansvar for at sikre samtykket. Ellers risikerer vi, at tjenesterne bare kan fortsætte som før, siger Ask Hesby Holm.
Holdningspapiret anbefaler derudover bl.a., at forbuddet også bør dække lyd, ikke kun billeder og video, som det fremgår af parlamentets forhandlingsposition. Samtidig må et snævert krav om realisme ikke skabe nye gråzoner, hvor materiale med filtre, forvrængninger eller tydelige AI-fejl falder uden for forbuddet.
Holdningspapiret er støttet af Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol.
Fakta:
- EU forhandler lige nu den såkaldte AI Omnibus, som skal forenkle AI Act og justere tidsplanen for implementeringen. I den forbindelse drøftes et forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale af identificerbare personer uden samtykke. Europa-Parlamentets forhandlingsposition kan læses her, og Rådets forhandlingsposition kan læses her.
- I et nyt holdningspapir anbefaler Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol, at den endelige bestemmelse bør præciseres efter følgende punkter:
- Et realismekrav bør ikke fortolkes snævert: Dårlig kvalitet, fejl eller anatomisk urealistiske fremstillinger af offeret bør ikke begrænse forbuddets anvendelse.
- Forbuddet bør ikke afhænge af fuld nøgenhed eller synlige intime kropsdele: Det afgørende bør være, om outputtet samlet set fremstiller en identificerbar person i en seksualiseret, truende eller ydmygende seksuel kontekst uden samtykke.
- Forbuddet bør også dække lyd, ikke kun billede og video: Ikke-samtykkebaseret seksualisering kan også ske ved at manipulere identificerbare personers stemmer.
- Samtykke skal sikres: Forbuddet må ikke kunne omgås ved, at brugeren blot erklærer, at der foreligger samtykke. Fx med en tjekboks. Samtykket skal komme fra den identificerbare person, der fremstilles i materialet.
- Begrebet ”effektive sikkerhedsforanstaltninger” må ikke udhule forbuddet: Hvis den endelige bestemmelse indeholder en undtagelse for AI-systemer med “effektive sikkerhedsforanstaltninger”, bør det præciseres, at sådanne foranstaltninger skal være reelle, dokumenterbare og egnede til at forhindre produktion af ikke-samtykkebaseret seksuelt eller seksualiserende materiale af identificerbare personer.
Nøgleord
Kontakter
Maja Wallmeier WolfgangPressekonsulentDigitalt Ansvar
Tlf:+45 9391 0689mww@digitaltansvar.dkAsk Hesby HolmDirektørDigitalt Ansvar
Tlf:+45 4216 4263ahh@digitaltansvar.dkBilleder
Links
Følg pressemeddelelser fra Digitalt Ansvar
Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.
Flere pressemeddelelser fra Digitalt Ansvar
Coke, ecstasy og MDMA: Snapchat tillader åbenlyse ord for stoffer i profilnavne14.4.2026 08:00:00 CEST | Pressemeddelelse
En ny undersøgelse fra Digitalt Ansvar viser, at Snapchat tillader profilnavne, hvor nogle af de mest almindelige ord for narkotika indgår. Snapchat forstærker dermed risikoen for salg af narkotika i stedet for at begrænse den, siger direktør i Digitalt Ansvar.
Nyt projekt skal få flere unge til at deltage i den demokratiske samtale online7.4.2026 10:07:06 CEST | Pressemeddelelse
Had og chikane på sociale medier afholder unge i at deltage i den demokratiske samtale på sociale medier. Derfor lancerer Digitalt Ansvar og Tuborgfondet et nyt projekt, der bl.a. skal få flere unge til at anmelde ulovligt og skadeligt indhold online for at gøre debatten mere tryg og konstruktiv.
Ny kortlægning: Banderne har frit spil på Instagram, hvor dødstrusler og rekruttering foregår i fuld offentlighed25.1.2026 08:00:00 CET | Pressemeddelelse
Danske rocker- og bandegrupperinger bruger sociale medier til at iscenesætte vold, magt og luksus, hvilket kan virke tillokkende for unge. Det viser en ny undersøgelse fra Digitalt Ansvar, der har kortlagt bandernes digitale tilstedeværelse og talt med anonyme unge, der følger bandernes aktiviteter online.
Historisk søgsmål: Meta sagsøges i Danmark for svigt af børn og unge17.11.2025 08:00:00 CET | Pressemeddelelse
Den hollandske NGO SOMI indleder et dansk gruppesøgsmål mod Meta for systematisk svigt af danske børn og unge. Flere eksperter samt organisationerne Digitalt Ansvar og Psykolog- og lægehuset, Dabeco bakker op og opfordrer danskere til at tilslutte sig kampen for at beskytte børn og unge på sociale medier.
Google viser stadig vej til kunstige overgreb på kvinder12.11.2025 08:00:00 CET | Pressemeddelelse
En ny undersøgelse fra Digitalt Ansvar viser, at Google fortsat leder brugere videre til manipuleret seksuelt materiale - også kendt som deepfake-porno. Hvor andre søgemaskiner markant har begrænset adgangen, fungerer Google derimod som en vigtig indgang til spredning af disse manipulerede overgreb på kvinder.
I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.
Besøg vores nyhedsrum


