Alexandra Instituttet

En fremtid med kunstig intelligens, vi kan have tillid til

Del

Der er store potentialer i at implementere kunstig intelligens i såvel offentlige som private organisationer. Men der synes at være en barriere, når vi skal gå fra gode intentioner til at realisere de nye muligheder – særligt når de kommer til at balancere potentiale, etik, tillid og gennemsigtighed i løsningerne. På en konference den 31. marts 2020 fra kl. 12-17 sætter Alexandra Instituttet, ATV, AAU’s Center ”AI for the People” og InfinIT fokus på forklarlig kunstig intelligens (XAI) i praksis, og hvordan man griber mulighederne.

Meld dig til konferencen som presse ved at tage fat i Troels Rud, kommunikationskonsulent ved ATV, på tlf.: 51854250 eller mail: tr@atv.dk 

Vi vil stille skarpt på forklarlig kunstig intelligens med perspektiver på teknologikompleksitet, etik, forretning, brugere og samfund. Ved på bedste tværfaglige vis at koble alle disse blikke på udviklingen af forklarlig kunstig intelligens håber vi at nå frem til en fælles forståelse af best practice – med fokus på practice.

”Forklarlig kunstig intelligens er et fænomen, vi ofte taler luftigt om, fordi det er svært at blive konkret, når det handler om, hvordan vi skaber tillid til teknologien. Tilliden ligger nemlig ikke i den teknologiske løsning, men hos brugeren af løsningen”,fortæller Marie Rørdam Fenger fra Alexandra Instituttet, en af arrangørerne bag konferencen. ”Men vi kan skabe forudsætningen for, at der er tillid til teknologien, og det handler blandt andet om at teknologien skal tilpasse sig brugeren – ikke omvendt. Det går så hurtigt med udviklingen af kunstig intelligens, at vi skal have de forudsætninger ned på et operationelt niveau nu.”

Til at igangsætte diskussionen vil vi præsentere en række ekspertoplæg samt spændende danske cases, der illustrerer, hvordan virksomheder og organisationer bruger forklarlig kunstig intelligens. Casene har fokus på udfordringer og muligheder samt hvilke skridt der er nødvendige for at implementere kunstig intelligens, og som er gennemsigtige og kan forklares.

Du kan bl.a. møde:

Head of Development Peter Christian Damm, Centre for Applied AI, KMD

CTO Lars Maaløe, Corti

Professor Anders Kofod-Petersen, Head of Data Science and Engineering Lab, vicedirektør, Alexandra Instituttet

Professor Thomas Moeslund, Det Tekniske Fakultet for IT og Design, Aalborg Universitet

Professor Thomas Ploug, PhD. Vicehead of Department. Aalborg Universitet

Kommunikations- og videnschef Kim Stensdal, Dansk IT (ordstyrer for dagen)

Professor Brit Ross Winthereik, ITU, Digital Vismand i ATV

Om eftermiddagen faciliterer vi en workshop, som har fokus på muligheder og udfordringer for udvikling og brug af forklarlig kunstig intelligens. Vi samler også de vigtige aktører på området til en skarp paneldebat om, hvordan vi realiserer de danske muligheder, og hvad behovet for viden er hos virksomheder og forskere.

Nøgleord

Kontakter

Links

Information om Alexandra Instituttet

Alexandra Instituttet
Alexandra Instituttet
Åbogade 34 · Njalsgade 76, 3. sal
8200 Aarhus N · 2300 København S

+45 70 27 70 12https://alexandra.dk

Arrangører af konferencen: 

Alexandra Instituttet, ATV, InfinIT og Center “AI for the People”, Aalborg Universitet.

Følg pressemeddelelser fra Alexandra Instituttet

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Alexandra Instituttet

Computer, hvordan vil du lige forklare det? Og det gerne med subjektive eksempler og objektive facts til feature attribution metoder og fodbold!28.5.2020 10:50:05 CESTPressemeddelelse

Maskinlæringsmodeller kan bruges til at klassificere mange forskellige ting, og et eksempel kunne være en model til at afgøre hvilken tone en tekst er skrevet i. Men hvorfor siger modellen nu igen, at jeg skriver i en subjektiv tone, når nu jeg prøver at forholde mig objektivt? Vi kan forsøge at forklare modellens udfald ved at se på hvilke ord, der har været mest betydende for udfaldet. Et eksempel er; ”jeg synes, at AGF er det bedste hold i Superligaen”, og i forklaringen nedenfor ses det, at ordene ”jeg” og ”synes” har været de mest udslagsgivende for, at modellen prædikterer sætningen som værende subjektiv og ikke objektiv.

Hvad betyder forklarlighed, når vi taler om kunstig intelligens?13.5.2020 13:52:19 CESTPressemeddelelse

Kunstig intelligens er blevet mere og mere udbredt, og dermed følger der også nye udfordringer ved anvendelse af maskinlæring og datadrevne modeller. En af de udfordringer, der har meget fokus lige nu er “black-box”-problematikken, altså ugennemsigtighed af datadrevne modeller og udfordringerne med at forklare deres resultater og logik. For hvornår er kunstig intelligens forklaret tilstrækkeligt? Det er noget af det, vi vil kigge på i dette blogindlæg.

Hvordan bliver computeren en retfærdig superhelt? Aka lidt om fairness i maskinlæring13.5.2020 13:44:49 CESTPressemeddelelse

Superfede maskinlæringsmodeller skulle gerne opfattes mere som superhelte end som onde skurke. Men hvordan sikrer vi, at vores modeller netop bliver klassificeret og repræsenteret som sådanne? Eller faktisk er spørgsmålet, hvordan vi sikrer, at modellerne er retfærdige og ordentlige i deres udfald, når de har en indvirkning på mennesker — det handler jo om, som i en hver anden superheltefilm, at redde menneskeheden!

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum