Dansk Standard

Undgå kunstig intelligens, der diskriminerer

Del
Ny vejledning hjælper virksomheder og kommuner med at undgå uønsket bias og forskelsbehandling i it-systemer

Input påvirker output. Det gælder både, når vi mennesker skal analysere eller træffe beslutninger, men det gælder i særdeleshed også, når kunstig intelligens fx bliver sat til at hjælpe med sagsbehandling i en kommune, hjælpe med at rekruttere en ny medarbejder i en virksomhed eller oversætte en tekst på Google Translate. Det er nemlig på grund af input i form af historiske data, at Google Translate oversætter “min kæreste gør rent” til “my girlfriend cleans”, og “min kæreste er direktør” til “my boyfriend is an executive”. Lige som det er forældet datasæt i kunstig intelligens, der har gjort, at højtuddannede ikke etniske danskere, hvis ekspertise der er mangel på i Danmark, er blevet foreslået job som fx pizzabude eller taxachauffører på jobcentret.  

”Kunstig intelligens hjælper os mennesker på daglig basis med at analysere store mængder data og træffe beslutninger. Derfor er det vigtigt, at it-systemer baseret på kunstig intelligens er fodret med data, der passer til opgaven og at dataene ikke er forældede. Og ikke mindst at udviklere, indkøbere og brugere af systemerne overvejer, om der er blinde vinkler i de anvendte data. Ellers kan organisationen risikere, at algoritmen medtager uønsket bias, der potentielt kan medføre forskelsbehandling og diskrimination” siger Malte Højmark-Bertelsen, Head of AI & NLP i KMD.

Forældede data har nutidige konsekvenser

”Mange datasæt er bygget op på data, som tiden er løbet fra. Problemet er, at det kan medføre bias, som man ikke er opmærksom på eller som man ikke ved, hvordan er opstået, fordi man reelt ikke aner, hvordan systemet er kommet frem til sine resultater”, siger Anders Kofod-Petersen.

Derfor har Dansk Standard i samarbejde med en række eksperter både indenfor AI og diversitet udarbejdet en vejledning, der kan hjælpe med de problemstillinger, der følger med brugen af kunstig intelligens.

Vores samfund har de seneste år fået øget fokus på diversitet og ligestilling, og spørger man Marie Valentin Beck, initiativtager til vejledningen og selvstændig rådgiver inden for diversitet og inklusion, skal samfundets tendenser også reflekteres i digitale løsninger så som kunstig intelligens.

”It-systemer er ikke mere eller mindre biased end de mennesker, der har skabt dem. Hvis vi vil mindske uønsket forskelsbehandling i fremtiden, skal menneskerne bag den kunstige intelligens være helt bevidste om, hvilke data ens it-systemet skal basere sine resultater på”, siger Marie Valentin Beck.

Ny vejledning giver redskaber til at undgå bias

Dansk Standards nye vejledning giver et konkret redskab til at håndtere og skabe gennemsigtighed i forhold til bias i kunstig intelligens.

”Vejledningen giver en fælles metode, som alle typer af organisationer kan anvende, når de skal håndtere bias i deres it-systemer. Desuden er vejledningen bygget op, så den kan anvendes af både udviklere, indkøbere og projektledere – med andre ord alle, der arbejder med kunstig intelligens. Vejledningen fortæller ikke, hvad der er rigtigt eller forkert, men opstiller nogle konkrete redskaber og retningslinjer, som man kan anvende i indsatsen for at kunne håndtere bias”, siger Kim Skov Hilding, seniorkonsulent i Dansk Standard.

Vejledningen, der er støttet af Erhvervsstyrelsen, hænger sammen med det arbejde, der foregår internationalt inden for kunstig intelligens.

Du kan downloade vejledningen her: https://www.ds.dk/da/download/ds-pas-2500-3-2023

Vil du vide mere om, hvordan du håndterer bias i kunstig intelligens, kan du deltage i Dansk Standards webinar d. 9. maj. Læs mere her: www.ds.dk/ai 

Kontakter

Til redaktionen: For yderligere oplysninger kontakt Lisa Klæsøe, pressechef i Dansk Standard, på mail: lio@ds.dk eller mobil: 27 12 93 69.

Links

Information om Dansk Standard

Dansk Standard
Dansk Standard
Göteborg Plads 1
2150 Nordhavn

http://www.ds.dk/

Fem gode råd til at undgå blinde vinkler i kunstig intelligens

1. Få input til målgruppesegmentering fra forskellige mennesker i din organisation

2. Opdatere jeres data løbende, så det er repræsentativt til jeres målgruppe, fx ift. køn, indkomst, herkomst og alder

3. Sørg for at jeres systemer overholder relevante love om ligebehandling, menneskerettigheder, demokratiske værdier og diversitet

4. Opbyg et system, der er gennemsigtigt, så I hurtigt kan opdage potentielle bias

5. Hav en plan klar, hvis I pludselig skulle identificere potentielle bias

Følg pressemeddelelser fra Dansk Standard

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Dansk Standard

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum
HiddenA line styled icon from Orion Icon Library.Eye