Digitalt Ansvar afslører: Instagram taler usandt, når de påstår at fjerne selvskadeindhold med AI
Ny undersøgelse fra Digitalt Ansvar viser, at Instagram stadig ikke fjerner voldsomt selvskadeindhold og stik imod deres egen udmelding fravælger at bruge kunstig intelligens til automatisk at fjerne indholdet.
Børn og unge, der deler blodige billeder og tips og tricks til at selvskade, er ikke et nyt fænomen på sociale medier.
DR-dokumentaren ”Døde pigers dagbog” viste fx i 2020, hvordan Instagram forbandt selvskadende unge, som deler farlige råd og opfordringer til selvskade. Netværk der, ifølge eksperter, kan inspirere og forstærke selvskadeadfærd.
Meta, som bl.a. står bag Instagram, har løbende forsvaret sig med, at de er blevet meget bedre til at fjerne skadeligt indhold og hævder, at de bruger kunstig intelligens til automatisk at fjerne selvskadeindhold.
Men det er ikke tilfældet, kan Digitalt Ansvar nu afsløre i en ny undersøgelse.
Instagram har fjernet 0% af selvskadeindholdet i undersøgelsen
For at undersøge Instagrams påståede automatiske moderation af selvskadeindhold oprettede Digitalt Ansvar et falsk selvskadenetværk på Instagram. Med ti private profiler, med aldre på både under og over 18 år, skabte Digitalt Ansvar et troværdigt netværk af profiler med interesse for selvskade.
I en periode på fire uger delte de ti profiler tilsammen 85 opslag med selvskadeindhold. Instagram fjernede undervældende 0 procent af opslagene. Det er meget foruroligende, siger direktør i Digitalt Ansvar, Ask Hesby Holm.
Resultatet står i skærende kontrast til Instagrams udmelding om, at de proaktivt fjerner selvskadeindhold ved hjælp af kunstig intelligens. At de ikke har fjernet et eneste stykke indhold i vores undersøgelse, understreger en gang for alle, at børn og unges sikkerhed ikke står højt på Metas prioriteringsliste, siger han.
Selv ikke åbenlyst selvskaderelateret indhold fra undersøgelsen, der tydeligt viser blod, barberblade eller opfordring til selvskade, blev fjernet.
Heller ikke de fem profiler under 18 år blev underlagt nogen former for moderation eller begrænsning, og ingen af de ti profiler modtog advarsler om, at indholdet brød med Instagrams regler, ligesom de heller ikke modtog nogen former for vejledning eller opfordring til at søge hjælp i forbindelse med delingen af materialet.
Så nemt var det at identificere selvskadeindhold med kunstig intelligens
Digitalt Ansvar har også undersøgt, hvorvidt kunstig intelligens var i stand til at identificere selvskadematerialet fra undersøgelsen.
Digitalt Ansvar kunne via kunstig intelligens identificere 38 procent af det samlede selvskadeindhold og hele 88 procent af det indhold, som kategoriseres som det groveste.
Det understreger, at Instagram godt kan identificere og fjerne indholdet, hvis de ville, siger direktør i Digitalt Ansvar, Ask Hesby Holm.
Instagram viser vej til selvskadenetværk
Ikke nok med at Instagram ikke fjerner voldsomt selvskadeindhold på deres platform, så kan deres algoritme også være med til at udbrede selvskadenetværk - også til børn.
Instagrams algoritme anbefalede nemlig de 13-årige profiler i undersøgelsen at følge alle i det falske selvskadenetværk, hvis de fulgte bare én profil fra netværket.
Det betyder, at hvis en 13-årig, der, eksempelvis ved et tilfælde, følger én profil, hvor der deles selvskade, vil få hjælp af Instagram til at finde andre profiler, der deler selvskade. Instagram spiller dermed potentielt en stor rolle i at forme og udbrede netværk, hvor der deles selvskadeindhold.
Instagram bryder med EU-regler
Udover at Instagram bryder med egne fællesskabsregler og retningslinjer ved ikke at fjerne selvskadeindholdet i Digitalt Ansvars undersøgelse, fraviger de også fra deres forpligtelser i EU’s forordning om digitale tjenester (DSA), vurderer direktør i Digitalt Ansvar.
Instagram gør ikke nok for at begrænse selvskadeindhold, som udgør en tydelig risiko for brugernes fysiske og mentale helbred samt mindreåriges sikkerhed, og det er i strid med EU-reglerne for store sociale medier som Instagram, siger Ask Hesby Holm.
Overblik over resultater
- Instagram fjernede ikke et eneste af de 85 selvskadeopslag fra undersøgelsen. Selv ikke åbenlyst selvskadeindhold delt af både 13-årige og 18+-årige profiler, der tydeligt viser blod, barberblade eller opfordring til selvskade.
- Ingen af de ti profiler modtog advarsler om, at indholdet brød med Instagrams retningslinjer. Profilerne modtog heller ikke nogen former for vejledning eller opfodring til at søge hjælp i forbindelse med delingen af materialet.
- Digitalt Ansvar kunne automatisk ved at anvende kunstig intelligens identificere 38 procent af selvskadebillederne og 88 procent af dem, som kategoriseres som de værste. Det peger på, at Instagram taler usandt, når de påstår at benytte teknologi, som kan minimere problemet med selvskadeindhold på deres platform.
- Instagrams anbefalingsalgoritme anbefalede 13-årige brugere at blive venner med alle i Digitalt Ansvar falske selvskadenetværk, hvis den 13-årige bruger blev venner med bare én bruger fra netværket. Anbefalingsalgoritmen er dermed medvirkende til at forme og udbrede netværk, hvor der deles selvskademateriale.
Nøgleord
Kontakter
Maja Wallmeier WolfgangPressekonsulent
Tlf:+45 9391 0689mww@digitaltansvar.dkAsk Hesby HolmDirektør
Tlf:+45 4216 4263ahh@digitaltansvar.dkBilleder
Vedhæftede filer
Følg pressemeddelelser fra Digitalt Ansvar
Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.
Flere pressemeddelelser fra Digitalt Ansvar
Oplæg og paneldebat: Instagrams selvskadebedrag13.11.2024 15:55:26 CET | Presseinvitation
Digitalt Ansvar inviterer til oplæg og paneldebat d. 28/11 i lyset af vores nye undersøgelse af Instagrams moderation af selvskadeindhold.
Digitalt Ansvar om regeringens nye initiativ mod manipuleret seksuelt materiale: ”Et vigtigt skridt i en tid, hvor alle potentielt kan blive ofre”21.10.2024 08:00:00 CEST | Pressemeddelelse
Regeringen foreslår at kriminalisere fremstillingen af manipuleret seksuelt materiale efter anbefaling fra Digitalt Ansvar.
Trusler og hadefulde kommentarer: Flere udsættes for digital chikane i forbindelse med deres arbejde4.8.2024 12:00:00 CEST | Pressemeddelelse
Ny opgørelse fra Digitalt Ansvar viser, at mange danskere udsættes for digital chikane fra fx kunder eller borgere i forbindelse med deres arbejde. Blandt privatansatte er tallet steget med 5 procentpoint siden 2021.
Kvindehad og falske sexvideoer: Digitalt Ansvar klager over Google og Bing til Konkurrence- og Forbrugerstyrelsen27.6.2024 07:00:00 CEST | Pressemeddelelse
Søgemaskinerne viser vej til hjemmesider med manipulerede seksuelle videoer og fjerner ikke links trods anmeldelser.
Ny undersøgelse: Google og Bing fjerner ikke anmeldte søgeresultater med ulovlige falske nøgenvideoer30.5.2024 07:00:00 CEST | Pressemeddelelse
Digitalt Ansvar har undersøgt Google Search og Microsoft Bings anmeldelsessystem ved at indgive en række anmeldelser af søgeresultater, der henviser til hjemmesider med manipuleret seksuelt materiale – også kendt som ’deepfake porno’.
I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.
Besøg vores nyhedsrum