Alexandra Instituttet

Ansvarlig AI: Situationen, udfordringen og løsningen

Del

Den kunstige intelligens skal kunne forstå den kontekst, brugeren sidder i. Systemet skal kunne understøtte sin beslutning baseret på den domæneviden, som brugeren sidder med og kunne tale brugerens sprog. Derfor skal vi bygge domæneviden direkte ind i it-systemet.

SITUATIONEN

For cirka et år siden udkom den danske regerings nationale strategi for kunstig intelligens. Her står det klart og tydeligt, at vi i Danmark har en styrkeposition, når det kommer til at udvikle ansvarlig kunstig intelligens (AI) på et etisk grundlag. Analysen hedder, at selvom USA og Kina investerer massive summer i udviklingen af kunstig intelligens og galopperer ud over AI-stepperne, så har Danmark viden og kapacitet, når det kommer til at indarbejde etik i og opbygge tillid fra brugerne til vores teknologi. Dette er vores stærkeste kort.

I regeringens og EU’s udmeldinger om ansvarlig kunstig intelligens er der mange muligheder og udfordringer — og det rejser en masse spørgsmål: Hvordan forholder danske virksomheder sig til de store AI-linjer og -retninger, som Regeringen og Europa-kommissionen sætter? Hvordan udnytter virksomhederne de potentialer, man peger på? Og hvordan sikrer man sig som virksomhed, at man efterlever den lovgivning, der måske kan være på vej på AI-området, så man fortsat kan drive forretning? Det er nogle af de ting, vi arbejder på i vores toårige projekt om ansvarlig og forklarlig kunstig intelligens på Alexandra Instituttet.

UDFORDRINGEN

1.000.000.000.000 kroner-spørgsmålet er: Hvordan udvikler vi ansvarlig, etisk og forklarlig AI i praksis? Og hvad betyder de forskellige begreber (som på ingen måde er synonymer, selvom de ofte bliver brugt sådan) egentlig?

Selvom der allerede er AI-løsninger i drift, når det kommer til mere ‘ufarlige’ områder som predictive maintenance og anomali-detektion i sensorer, vælter vi os (endnu) ikke i AI-løsninger, der rykker ved etiske spørgsmål, og som derfor kan vise os vejen og lade os få øje på alle de udfordringer, implementeringen af teknologien giver og de dilemmaer, den sætter os i. Især vælter vi os ikke i cases, hvor AI potentielt kunne gøre en stor forskel i vores samfund, nemlig hos kommunerne og i sundhedssektoren. Derfor er vi i ukendt land i vores projekt. Vi prøver nemlig at ruste vores (og derigennem Danmarks) kompetencer til at tage de rigtige valg i udviklingen af AI. Vi udvikler denne viden på baggrund af praktiske eksperimenter med teknologien, og åbne spørgsmål til brugerne af teknologien og til virksomhederne samtidig med, at vi søger såvel den nyeste som ældste forskning på feltet igennem.

Vi har nu en stærk forståelse for, hvad forklarlig og ansvarlig AI er, hvor der er behov for det, og hvilke udfordringer der er, ved at udvikle, implementere og bruge det.

Der er ret mange udfordringer. Men der er endnu flere muligheder!

Mulighederne er naturligvis, at brugere af et AI-system får indblik i, hvordan og hvorfor en kunstigt intelligent model giver et bestemt udfald. Men udfordringen er til gengæld, at dette indblik kan blive meget komplekst og måske i samme ombæring særdeles irrelevant for den opgave, som brugeren skal løse. Sat meget på spidsen: Hvorfor skal jeg forstå en selvkørende bils underliggende algoritmers virkemåde lige nu og her, hvis jeg ikke har tid og/eller mulighed for at tage et valg om at bremse eller fortsætte i en kritisk situation?

En konkret kontekst, vi har kigget på i projektet, er hos optikere, der bruger AI-modeller til at vurdere, om en kunde har anlæg til øjensygdomme. Her har vi testet, hvordan en forklarlig model kunne hjælpe optikerne til at forstå et udfald af en ret enkel model, så de kunne give kunderne en god forklaring. Men her viste det sig, at konteksten ikke levnede rum til at sætte sig ind i baggrunden for modellens udfald. At implementere en forklarlig model ville kræve en helt anden arbejdsgang samt en højere grad af teknologiforståelse hos brugerne.

Casen lærte os, at implementering af AI kræver andre greb end blot en forklarlig model — nemlig en dyb forståelse for den kontekst, brugeren sidder i samt det økosystem, brugeren befinder sig i; altså hvilke input skal brugeren forholde sig til, og hvilke output skal brugeren give videre og til hvem? Og et etisk dilemma, der går på: om det egentlig er optikernes rolle at fortælle en kunde, at vedkommende muligvis har en alvorlig (øjen)sygdom, når kunden blot var gået ind i butikken med intentionen om at købe et par briller?

LØSNINGEN

Svaret på spørgsmålet om, hvordan man udvikler ansvarlig AI i praksis, nærmer vi os. Men det er på mange måder utilfredsstillende, hvis man står og skal have et her og nu-svar, for svaret ændrer sig nemlig hele tiden: Løsningen på udfordringen er ikke en one-size-fits-all-model. Den er kontekstbaseret, som vi var inde på oven for, og den er tværfaglig. Den er tværfaglig, fordi det i vores optik kræver en triangulær bevægelse at forstå, hvordan AI bedst løser sin opgave. Derfor går vi i vores projekt til opgaven med udgangspunkt i såvel teknologien (datalogien) og brugeren (antropologien) som organisationen/virksomheden (forretningsforståelsen).

Vi skal forstå, hvad teknologien kan, før vi kan forstå, hvilke opgaver brugeren kan forvente at løse for organisationen/virksomheden.

Vi skal forstå, hvad brugerens kontekst og motivation er for at løse opgaven i organisationen/virksomheden, før vi kan forstå, hvordan teknologien kan løse den.

Vi skal forstå, hvordan organisationen/virksomheden kan skabe værdi gennem teknologiens muligheder for at støtte brugeren i sin kerneopgave.

Vi fejler nemlig, hvis vi laver en teknisk løsning, hvor forklaringen kun kan forstås af hende, der udviklede modellen. Den kunstige intelligens skal kunne forstå den kontekst, brugeren sidder i. Systemet skal kunne understøtte sin beslutning baseret på den domæneviden, som brugeren sidder med og kunne tale brugerens sprog. Derfor skal vi bygge domæneviden direkte ind i it-systemet.

Og det må også være en slags svar — bare ikke helt tilfredsstillende, hvis man som virksomhed, myndighed eller lignende står over for at skulle udvikle og implementere en AI-løsning. For AI-udvikling er langt fra triviel. Den kræver som skrevet indsigt i teknologi, brugere, forretning og etik. Og den indsigt er det vores opgave at tilegne og os formidle videre gennem vores respektive fagligheder, som omfatter machine learning specialister, antropologer og forretningsudviklere.

Bloggen Ansvarlig AI, som du læser på lige nu, er en tværfaglig blog med både tekniske indlæg om forklarlig og fair maskinlæring, antropologiske indlæg om forståelse og anvendelse af teknologien, samt et standpunkt eller to til debat. Det hele i et gennemsigtigt forsøg på at bryde ud af den sorte boks.

Nøgleord

Kontakter

Links

Information om Alexandra Instituttet

Alexandra Instituttet
Alexandra Instituttet
Åbogade 34 · Njalsgade 76, 3. sal
8200 Aarhus N · 2300 København S

+45 70 27 70 12https://alexandra.dk

Ansvarlig AI er en tværfaglig blog med både tekniske indlæg om forklarlig og fair maskinlæring, antropologiske indlæg om forståelse og anvendelse af teknologien, samt et standpunkt eller to til debat. Det hele i et gennemsigtig forsøg på at bryde ud af den sorte boks.

Følg pressemeddelelser fra Alexandra Instituttet

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Alexandra Instituttet

Hvad betyder forklarlighed, når vi taler om kunstig intelligens?13.5.2020 13:52:19 CESTPressemeddelelse

Kunstig intelligens er blevet mere og mere udbredt, og dermed følger der også nye udfordringer ved anvendelse af maskinlæring og datadrevne modeller. En af de udfordringer, der har meget fokus lige nu er “black-box”-problematikken, altså ugennemsigtighed af datadrevne modeller og udfordringerne med at forklare deres resultater og logik. For hvornår er kunstig intelligens forklaret tilstrækkeligt? Det er noget af det, vi vil kigge på i dette blogindlæg.

Hvordan bliver computeren en retfærdig superhelt? Aka lidt om fairness i maskinlæring13.5.2020 13:44:49 CESTPressemeddelelse

Superfede maskinlæringsmodeller skulle gerne opfattes mere som superhelte end som onde skurke. Men hvordan sikrer vi, at vores modeller netop bliver klassificeret og repræsenteret som sådanne? Eller faktisk er spørgsmålet, hvordan vi sikrer, at modellerne er retfærdige og ordentlige i deres udfald, når de har en indvirkning på mennesker — det handler jo om, som i en hver anden superheltefilm, at redde menneskeheden!

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum