Aarhus Universitet: Arts

AU-professor leder udvikling af nyt EU-kodeks, der skal synliggøre AI-skabt indhold

18.3.2026 13:54:21 CET | Aarhus Universitet: Arts | Pressemeddelelse

Del

2. august 2026 træder nye regler for mærkning af AI-genereret indhold i kraft. En arbejdsgruppe nedsat af Europa-Kommissionen med professor ved Medievidenskab Anja Bechmann som formand arbejder på et adfærdskodeks, der skal hjælpe indholdsproducenter med at leve op til lovgivningen.

Anja Bechmann er udpeget som formand for den arbejdsgruppe, som frem mod august skal udvikle et adfærdskodeks for mærkning af AI-genereret indhold. Foto: Lars Svankjær for Videnskabernes Selskab
Anja Bechmann er udpeget som formand for den arbejdsgruppe, som frem mod august skal udvikle et adfærdskodeks for mærkning af AI-genereret indhold. Foto: Lars Svankjær for Videnskabernes Selskab Foto: Lars Svankjær for Videnskabernes Selskab Lars Svankjær for Videnskabernes Selskab

Forskningen viser tydeligt, at det er for vanskeligt at afkode, om videoer, billeder, tekst eller andet indhold er skabt med kunstig intelligens. Det vil ny lovgivning rette op på. 2. august 2026 træder en række gennemsigtighedsforpligtelser i kraft, som gør det lovpligtigt at mærke AI-genereret indhold. Reguleringen er vedtaget af Danmark og de øvrige EU-lande i AI-forordningen, som stiller krav til ansvarlig brug af kunstig intelligens i Europa.

Europa-Kommissionen har udpeget Anja Bechmann, professor ved Medievidenskab, Aarhus Universitet, som formand for den arbejdsgruppe, som frem mod august skal udvikle et adfærdskodeks, der operationaliserer loven og hjælper indholdsproducenter med at leve op til kravene.

Anja Bechmann er leder af DATALAB - Center for Digital Social Research ved Aarhus Universitet og forsker i AI-human kollektiv adfærd og demokratiske udfordringer, blandt andet misinformation. Hun har tidligere samarbejdet med Europa-Kommissionen som medlem af en ekspertgruppe om desinformation.

-Hensigten er klar; Det skal være nemmere for almindelige mennesker at afkode, hvornår de ser indhold generet af AI. I arbejdsgruppen er vores opgave at komme med forslag til, hvordan det kan gøres, fortæller Anja Bechmann.

At det er svært som almindelig bruger at skelne syntetisk indhold fra menneskeskabt indhold, viser den første årlige rapport om tech-giganternes indflydelse på demokrati, trivsel og sammenhængskraft, som Anja Bechmann har bidraget til sammen med kolleger fra Københavns Universitet og Syddansk Universitet. Rapporten, der er udgivet af Digitaliseringsministeriet i februar 2025, konkluderer blandt andet, at danskerne ikke klarer sig væsentligt bedre end tilfældige gæt, når de skal identificere, hvorvidt billeder er skabt med eller uden generativ AI.

Får effekt for 450 millioner borgere

Målet med adfærdskodekset er, at al forretningsdrevet indhold målrettet Europas 450 millioner borgere bliver deklareret. Derfor vil alle, der i forretningsøjemed producerer indhold rettet mod offentligheden, blive omfattet af gennemsigtighedsforpligtelserne. Det gælder reklamebureauer, medievirksomheder, influencere, spil- og filmindustri, musiktjenester, fotografer, søge-,prompt- og chatbots og mange flere.

-Kort sagt alle virksomheder, der producerer deepfakes i form af billeder, video og lyd eller AI-tekst til offentligheden uden menneskelig redaktion og ansvarlig person bag, fortæller Anja Bechmann.

I løbet af efteråret 2025 er der indhentet interessetilkendegivelser fra big tech, virksomheder, ngo’er, akademikere med flere som ønsker at indgå i arbejdet. 200 interessenter er udvalgt til at indgå i processen med udviklingen af kodekset. Det sikrer, at en bred vifte af interessenter bliver hørt løbende og kan kvalificere brugbarheden af kodekset.

Én af arbejdsgruppens opgaver består nu i at gå i dialog med interessenterne samt at fremlægge versioner af kodekset for EU kommissionens AI board, alle 27 medlemslande samt EU Parlamentet for kommentarer. Kodekset kommer med løsninger på, hvordan mærkning blandt andet skal være tydelig og klar samt forefindes første gang, en borger ser indholdet. 

-Det er næsten blevet normen at bruge AI til at skabe indhold enten fuldt ud eller delvist, og derfor er det ikke simpelt at udvikle en model for mærkning, der krydser alle kontekster, alle modaliteter og alle medieplatforme online såvel som offline, samtidig med at mærkningen skal opfylde EU's adgangskrav. Hvordan skal mærkningen være udformet, så den ikke unødigt skaber utroværdighed, som eksisterende studier har vist? Hvor skal den placeres for at kunne ses, hvis borgeren er i tvivl og vil søge det? Hvor meget information skal mærkningen indeholde, når vi fra forskningen ved, at for meget information gør, at man ikke ser den?, spørger Anja Bechmann.

Adfærdskodekset bliver virksomt og udarbejdes parallelt med EU's guidelines til lovteksten. Her foretages vigtige definitioner af, hvad der skal markeres. Skal influencere eksempelvis markere, når billeder er forskønnet med AI-beautyfilter? Skal et produktkatalog markere, hvis der er brugt AI-filter til at forskønne produkterne? Det er nogle af de nuancer, som arbejdsgruppen skal afklare. Lovteksten siger, at indholdet skal mærkes, når det bedrager og foregiver at være en virkelighed, det ikke er. Men er der en bagatelgrænse, og hvor går den i givet fald?

Andet udkast af adfærdskodekset kan findes her. På baggrund af interessenternes tilbagemeldinger skriver arbejdsgruppen i foråret 2026 den tredje og endelige version af kodekset. Kodekset forventes publiceret i juni 2026.

Fakta

Arbejdsgruppen består af:

Formand: Anja Bechmann, professor ved Medievidenskab og direktør for DATALAB - Center for Digital Social Research ved Aarhus Universitet.

Næstformand: Giovanni De Gregorio, PLMJ chair of Law and Technology at Católica Global School of Law and Católica Lisbon School of Law.

Næstformand: Madalina Botan, Associate Professor at SNSPA (Bucharest) and coordinator of the Center for Media Studies.

Fakta

Mærkning af AI-genereret indhold

AI-forordningen, vedtaget af EU’s medlemslande, stiller særlige krav til gennemsigtighed for indhold skabt af eller med AI.

Forordningens Artikel 50 beskriver en række gennemsigtighedsforpligtelser, som træder i kraft 2. august 2026. Formålet er at gøre det synligt for den almindelige bruger, når indhold er ’deepfake’ eller AI-genereret eller manipuleret tekst, der informerer offentligheden om forhold af offentlig interesse uden menneskelig redigering eller redaktionel kontrol og med en ansvarlig person bag.

’Deepfake’ udgør et ved hjælp af AI genereret eller manipuleret billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt vil fremstå ægte eller sandfærdigt.

Europa-Kommissionen har nedsat en arbejdsgruppe af uafhængige eksperter, som i øjeblikket arbejder på et adfærdskodeks, der operationaliserer lovteksten. Kodekset skal tjene som et frivilligt redskab for de indholdsproducenter, som bliver omfattet af gennemsigtighedsforpligtelserne.

Kontakter

Links

Følg pressemeddelelser fra Aarhus Universitet: Arts

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Aarhus Universitet: Arts

Kulturlivet kan blive bedre til at lytte til børns forskelligartede stemmer10.3.2026 14:00:00 CET | Pressemeddelelse

Børn oplever mødet med kulturinstitutioner som museer og teatre meget forskelligt. Det viser resultaterne af forskningsprojektet ’BØV – Børns møde med den nationale kulturarv’, som forskere fra Aarhus Universitet står bag. I samarbejde med Nationalmuseet, Det Kongelige Teater og Statens Museum for Kunst har forskerne undersøgt, hvilke strategier de tre kulturinstitutioner bruger til at sikre børns ret til at møde kulturarven, og hvordan det opleves fra børnenes perspektiv.

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum
World GlobeA line styled icon from Orion Icon Library.HiddenA line styled icon from Orion Icon Library.Eye