Digitalt Ansvar: Ansvaret for børns overforbrug af sociale medier kan ikke bare overlades til forældrene
Nye tal om børn og unges vaner på sociale medier sætter en tyk streg under behovet for bedre lovgivning og håndhævelse af aldersgrænsen på sociale medier.
Tal på børn og unges overforbrug af sociale medier fra vores medlemsorganisation Børns Vilkår er chokerende, men ikke overraskende.
Det er velkendt, at tech-virksomheder som fx TikTok, Snapchat og Meta, som står bag Instagram og Facebook, gør alt for at fastholde deres brugere, børn som voksne, med aggressive mekanismer og funktioner, som aktiverer belønningscentrene i hjernen og klistrer os til skærmen.
Derfor er det ikke overraskende, at 63% af børn i 4. klasse angiver mobiltid blandt de aktiviteter, som de bedst kan lide at lave efter skole, og at tallet er steget til 74% blandt elever i 7. klasse.
Tallene viser samtidig, at næsten halvdelen af 10-årige børn i Danmark har en profil på sociale medier, selvom aldersgrænsen er 13 år på samtlige platforme.
'Ansvaret må ikke bare placeres på forældrene, som oftest kan være bange for at ekskludere deres børn fra det sociale fællesskab'
For mange er det nærliggende at rette blikket mod forældrene, for hvis forældre sætter stramme regler for forbrug og nægter deres børn at være på sociale medier, før de overholder aldersgrænsen, burde der vel ikke være et problem? Men så enkelt er det ikke ifølge direktør i Digitalt Ansvar.
- Ansvaret må ikke bare placeres på forældrene, som oftest kan være bange for at ekskludere deres børn fra det sociale fællesskab, som i dag er meget centreret om sociale medier. Det er en uoverkommelig opgave og fjerner fokus fra tech-virksomhedernes ansvar. For det er de sociale medier, som lukker børnene ind, og det er deres algoritmer, der foreslår voldsomme videoer og potentielt fastholder dem i et kaninhul af skadeligt indhold, siger direktør i Digitalt Ansvar, Ask Hesby Holm.
'Hvis et barn skal nyde beskyttelse, der svarer til dets alder, skal man vide med sikkerhed, at det er et barn, der sidder bag profilen'
I Digitalt Ansvar har vi længe anbefalet, at EU indfører aldersverifikation på sociale platforme. I praksis ville det betyde, at en 10-årig fx ikke kan få en TikTok-profil ved bare at angive, at de i virkeligheden er 13 år. For hvis et barn skal nyde beskyttelse, der svarer til dets alder, ligesom det er tilfældet i den analoge verden, så skal man vide med sikkerhed, at det er et barn, der sidder bag profilen.
Alternativet er, at børn fortsat har fri adgang til sociale medier, som ikke viser alderstilsvarende indhold, og som derfor kan få konsekvenser for deres udvikling og trivsel og for samfundet som helhed. Vi har bl.a. i en tidligere undersøgelse dokumenteret, hvordan TikTok fastholder sårbare børn og unge i et depressivt univers.
I den sammenhæng er det ganske positivt, at EU-kommissionen nu har meddelt, at de indleder en undersøgelse af, om Metas funktioner kan være afhængighedsskabende for børn og fastholde dem i et feed med ikke-alderstilsvarende indhold samt om Meta i tilstrækkelig sørger for at overholde aldersbegrænsningen på 13 år.
Digitalt Ansvar anbefaler
- EU skal fastsætte krav om aldersverifikation på sociale platforme, så børn under aldersgrænsen ikke bare kan lyve om deres alder ved oprettelsen af en profil.
- Krav om mere ansvarlige algoritmer og funktioner. EU skal stille mere specifikke krav til sikkerhed, før tech-virksomheder, herunder sociale medier, lancerer potentielt skadelige funktioner.
Nøgleord
Kontakter
Maja Wallmeier WolfgangPressekonsulent
Tlf:+45 9391 0689mww@digitaltansvar.dkAsk Hesby HolmDirektør
Tlf:+45 4216 4263ahh@digitaltansvar.dkBilleder
Links
Følg pressemeddelelser fra Digitalt Ansvar
Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.
Flere pressemeddelelser fra Digitalt Ansvar
Digitalt Ansvar afslører: Instagram taler usandt, når de påstår at fjerne selvskadeindhold med AI16.11.2024 08:00:00 CET | Pressemeddelelse
Ny undersøgelse fra Digitalt Ansvar viser, at Instagram stadig ikke fjerner voldsomt selvskadeindhold og stik imod deres egen udmelding fravælger at bruge kunstig intelligens til automatisk at fjerne indholdet.
Oplæg og paneldebat: Instagrams selvskadebedrag13.11.2024 15:55:26 CET | Presseinvitation
Digitalt Ansvar inviterer til oplæg og paneldebat d. 28/11 i lyset af vores nye undersøgelse af Instagrams moderation af selvskadeindhold.
Digitalt Ansvar om regeringens nye initiativ mod manipuleret seksuelt materiale: ”Et vigtigt skridt i en tid, hvor alle potentielt kan blive ofre”21.10.2024 08:00:00 CEST | Pressemeddelelse
Regeringen foreslår at kriminalisere fremstillingen af manipuleret seksuelt materiale efter anbefaling fra Digitalt Ansvar.
Trusler og hadefulde kommentarer: Flere udsættes for digital chikane i forbindelse med deres arbejde4.8.2024 12:00:00 CEST | Pressemeddelelse
Ny opgørelse fra Digitalt Ansvar viser, at mange danskere udsættes for digital chikane fra fx kunder eller borgere i forbindelse med deres arbejde. Blandt privatansatte er tallet steget med 5 procentpoint siden 2021.
Kvindehad og falske sexvideoer: Digitalt Ansvar klager over Google og Bing til Konkurrence- og Forbrugerstyrelsen27.6.2024 07:00:00 CEST | Pressemeddelelse
Søgemaskinerne viser vej til hjemmesider med manipulerede seksuelle videoer og fjerner ikke links trods anmeldelser.
I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.
Besøg vores nyhedsrum