Alexandra Instituttet

Skal vi virkelig betale med personlige samtaler for at få dansk sprogteknologi?

Del

Medarbejdere fra Apple er stået frem og har fortalt, hvordan de har aflyttet og transskriberet fortrolige og personlige samtaler ført i nærheden af digitale assistenter som Siri. Formålet er at forbedre assistentens evne til at forstå og tale med brugerne. Men behøver det at koste personfølsomme oplysninger at få god sprogteknologi?

Allerede i juli kunne man i en artikel fra The Guardian læse, at medarbejdere ved Apple jævnligt hører fortrolige oplysninger på optagelser fra Siri. Fra Apple har de blot sagt, at data ”…is used to help Siri and dictation … understand you better and recognize what you say”. Men de har ikke nævnt, at det er mennesker, der sidder og lytter til samtalerne for at forbedre teknologien bag.

Og vi er enige med Apple så langt, at ja – det kræver data at udvikle sprogteknologi og mennesker til at oplære maskinerne i at kunne forstå og tale med mennesker.

Men nej – det behøver ikke foregå gennem aflytning af personlige og fortrolige samtaler!

Hos Alexandra Instituttet er vi i gang med at udvikle dansk sprogteknologi. Men i stedet for at sætte mikrofoner på vores kolleger, når de går hjem om eftermiddagen, så arbejder vi med open source datasæt, der for eksempel er baseret på nyhedsartikler. Et konkret eksempel på et datasæt, vi har taget afsæt i, er en samling af 5.512 danske sætninger, som Det Danske Sprog- og Litteraturselskab har samlet i forbindelse med et projekt i 1998, kaldet PAROLE-DK-projektet.

Med de sætninger kan vi lære en maskine at kende ord fra hinanden i det danske sprog. Helt lavpraktisk betyder det, at en person via et program på computeren får præsenteret én sætning ad gangen. I den kan man tagge ord, der for eksempel er et udsagnsord eller et navneord, eller det kan være en organisation eller en lokation. Når vi har fortalt maskinen tilpas mange gange, hvordan eksempelvis et udsagnsord ser ud og opfører sig, kan den med stor præcision gætte sig til, hvilke ord der er udsagnsord i en ny tekst, uden at vi fortæller den det. Maskinen har ikke fået en bevidsthed, men data nok til at kende ordene fra hinanden.

Rent teknisk er der ikke noget i vejen for at træne robotter op med aflyttede personlige og fortrolige samtaler. Men rent etisk er vi glade for vores model, hvor vi bruger data, der ikke kompromitterer nogens private oplysninger.

Vi finder det vigtigt, at vi får lagt grundstenene til en gennemsigtig sprogteknologi af høj kvalitet med respekt for det danske sprog. For vi kommer til at mærke meget mere til sprogteknologi i vores hverdag, end vi gør nu…

Alene chatbots kommer til at stå for langt størstedelen af den kundeservice, vi kommunikerer med. Og det er som udgangspunkt godt, for den kender typisk dit problem og løsningen på det, før du selv gør, og den sætter dig ikke i en telefonkø eller holder lukket efter kl. 16.

Men så længe det er tech-giganter som Apple, Google, Amazon o.lign., der primært står for udviklingen af sprogteknologier, kan vi i Danmark ikke styre, hvordan det bliver udviklet, og hvordan det bliver udbudt. Vi kan heller ikke sikre, at det danske sprog bliver bevaret i tilstrækkelig grad, så vi f.eks. uden problemer kan have en samtale med sundhedssektoren via en chatbot. Derfor er vi i gang med at udvikle sprogteknologi på dansk, som skal være frit tilgængelig i Danmark – helt uden at lytte med på dine skænderier med kæresten.

Anders Kofod-Petersen er vicedirektør i Alexandra Instituttet og professor i kunstig intelligens og

Anne Bøgh Fangel er projektleder for Dansk for Alle-projektet ved Alexandra Instituttet

Nøgleord

Kontakter

Billeder

Links

Information om Alexandra Instituttet

Alexandra Instituttet
Alexandra Instituttet
Åbogade 34 · Njalsgade 76, 3. sal
8200 Aarhus N · 2300 København S

+45 70 27 70 12https://alexandra.dk

100 eksperter under ét tag 

Alexandra Instituttet hjælper offentlige og private virksomheder med at anvende den nyeste it-forskning og -teknologi. Vores udgangspunkt er samfundsmæssige problemstillinger og behov for at omsætte den nyeste forskning til innovative løsninger. 

Hos os finder du stærke kompetencer inden for blandt andet computer graphics, kunstig intelligens, internet of things, big data, it-sikkerhed, interaktionsdesign og smarte produkter. 

Vi arbejder i et tværfagligt miljø og er et hold af højtkvalificerede specialister, der hurtigt kan forstå din organisations og dine brugeres problemstillinger.

 
 

Følg pressemeddelelser fra Alexandra Instituttet

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Alexandra Instituttet

Computer, hvordan vil du lige forklare det? Og det gerne med subjektive eksempler og objektive facts til feature attribution metoder og fodbold!28.5.2020 10:50:05 CESTPressemeddelelse

Maskinlæringsmodeller kan bruges til at klassificere mange forskellige ting, og et eksempel kunne være en model til at afgøre hvilken tone en tekst er skrevet i. Men hvorfor siger modellen nu igen, at jeg skriver i en subjektiv tone, når nu jeg prøver at forholde mig objektivt? Vi kan forsøge at forklare modellens udfald ved at se på hvilke ord, der har været mest betydende for udfaldet. Et eksempel er; ”jeg synes, at AGF er det bedste hold i Superligaen”, og i forklaringen nedenfor ses det, at ordene ”jeg” og ”synes” har været de mest udslagsgivende for, at modellen prædikterer sætningen som værende subjektiv og ikke objektiv.

Hvad betyder forklarlighed, når vi taler om kunstig intelligens?13.5.2020 13:52:19 CESTPressemeddelelse

Kunstig intelligens er blevet mere og mere udbredt, og dermed følger der også nye udfordringer ved anvendelse af maskinlæring og datadrevne modeller. En af de udfordringer, der har meget fokus lige nu er “black-box”-problematikken, altså ugennemsigtighed af datadrevne modeller og udfordringerne med at forklare deres resultater og logik. For hvornår er kunstig intelligens forklaret tilstrækkeligt? Det er noget af det, vi vil kigge på i dette blogindlæg.

Hvordan bliver computeren en retfærdig superhelt? Aka lidt om fairness i maskinlæring13.5.2020 13:44:49 CESTPressemeddelelse

Superfede maskinlæringsmodeller skulle gerne opfattes mere som superhelte end som onde skurke. Men hvordan sikrer vi, at vores modeller netop bliver klassificeret og repræsenteret som sådanne? Eller faktisk er spørgsmålet, hvordan vi sikrer, at modellerne er retfærdige og ordentlige i deres udfald, når de har en indvirkning på mennesker — det handler jo om, som i en hver anden superheltefilm, at redde menneskeheden!

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum