Københavns Universitet      -        Det Natur- og Biovidenskabelige Fakultet

Nyt studie peger på svaghederne i AI

Del

ChatGPT og andre løsninger baseret på kunstig intelligens buldrer afsted. Men selv de mest succesfulde algoritmer har begrænsninger. Forskere på Københavns Universitet har som de første i verden påvist matematisk, at bortset fra simple problemer er det ikke muligt at lave algoritmer, som altid er stabile. Studiet kan føre til retningslinjer for, hvordan man skal teste algoritmer bedre og minder os om, at maskiner trods alt ikke har menneskelig intelligens.

Forskerne har skabet et sprog, som kan bruges til at tale om svaghederne i algoritmer til kunstig intelligens. Det kan måske føre til udvikling af nogle retningslinjer for, hvordan man skal teste sine algoritmer bedre. Foto: Getty
Forskerne har skabet et sprog, som kan bruges til at tale om svaghederne i algoritmer til kunstig intelligens. Det kan måske føre til udvikling af nogle retningslinjer for, hvordan man skal teste sine algoritmer bedre. Foto: Getty

Maskiner fortolker skanningsbilleder bedre end lægerne, hjælper os med at forstå fremmede sprog, og snart kan de formentlig styre biler mere sikkert end vi selv. Men selv de bedste algoritmer har svagheder. En forskningsgruppe på Datalogisk Institut, Københavns Universitet, afdækker dem.

Tænk på en selvkørende bil, der aflæser et vejskilt. Hvis nogen har sat et klistermærke på skiltet, vil det ikke forhindre et menneske i at forstå skiltet. Men en maskine kan let blive hylet ud af den, fordi skiltet nu er anderledes end de, som den er blevet trænet til at afkode.

”Vi vil gerne have, at algoritmerne er stabile. Det vil sige, at selvom input ændrer sig en lille smule, skal resultatet gerne være næsten det samme. I virkelighedens verden forekommer der alle mulige former for støj, som mennesker er vante til at lukke ude, men som kan forvirre maskinerne,” siger professor Amir Yehudayoff, der leder forskningsgruppen.

Et sprog til at tale om svaghederne

Som de første i verden har gruppen sammen med udenlandske forskere påvist matematisk, at bortset fra simple problemer er det ikke muligt at lave algoritmer, som altid er stabile, til brug for Machine Learning. Den videnskabelige artikel med beviset blev optaget på Foundations of Computer Science (FOCS), en af verdens førende konferencer for teoretisk datalogi.

”Jeg vil gerne understrege, at vi ikke har arbejdet direkte med selvkørende biler, men dette virker umiddelbart som en problemstilling, der er for kompleks til, at algoritmerne altid kan være stabile,” siger Amir Yehudayoff, og tilføjer, at den konstatering ikke nødvendigvis har store konsekvenser for udviklingen af selvkørende biler:

”Hvis algoritmen kun fejler under nogle få, meget specielle forhold, vil det måske være til at leve med. Det er straks værre, hvis der er en stor samling af forhold, hvor der sker fejl.”

Desværre kan den videnskabelige artikel ikke bruges af industrien til at finde fejl i algoritmerne. Det har dog heller ikke været meningen, forklarer professoren:

”Vi skaber et sprog, som kan bruges til at tale om svaghederne i algoritmer til Machine Learning. Det kan måske føre til udvikling af nogle retningslinjer for, hvordan man skal teste sine algoritmer. Og på langt sigt kan det måske også betyde, at der vil blive udviklet bedre og mere stabile algoritmer.”

Har erstattet intuition med matematik

En mulig anvendelse kan være til test af algoritmer, der skal beskytte retten til privatliv.

”En virksomhed hævder måske, at den har udviklet en fuldstændig sikker måde at beskytte brugernes digitale privatliv. For det første kan vores metodik muligvis påvise, at metoden ikke er fuldstændig sikker, og for det andet kan den finde svagheder,” siger Amir Yehudayoff.

Artiklens bidrag er dog først og fremmest teoretisk, og det er især det matematiske indhold, som er nyskabende, tilføjer han:

”Intuitivt kan vi godt forstå, at en stabil algoritme er en, der stadig virker nogenlunde som før, når der bliver tilsat lidt støj. Ligesom med vejskiltet, der har fået sat et klistermærke på. Men som teoretiske dataloger har vi brug for en klar definition, så vi kan beskrive problemet i matematisk sprog. Præcis hvor meget støj skal algoritmen kunne modstå, og hvor tæt skal algoritmen være på at levere det samme resultat som uden støj, for at vi betragter den som stabil? Det er det, som vi har givet et bud på.”

Vigtigt at huske maskinernes begrænsninger

Den videnskabelige artikel har skabt stor interesse blandt fagfællerne inden for teoretisk datalogi, men ikke fra tech-industrien. Ikke endnu da.

”Der er altid en vis forsinkelse fra ny teoretisk erkendelse til interesse i forbindelse med bestemte anvendelser,” siger Amir Yehudayoff og tilføjer med et smil:

”Og nogle teoretiske erkendelser ender simpelthen med at gå i glemmebogen.”

Det gælder dog ikke i dette tilfælde forudser han:

”Machine Learning vinder stadig mere frem, og det er vigtigt at huske, selv de løsninger, der har stor succes i den virkelige verden, stadig har deres begrænsninger. Nogle gange virker maskinerne næsten som om, at de er i stand til at tænke, men de har trods alt ikke menneskelig intelligens. Det er vigtigt at være bevidst om.”

Den videnskabelige artikel ”Replicability and Stability in Learning”, offentliggjort på konferencen Foundations of Computer Science (FOCS), 2023, kan læses her 

Nøgleord

Kontakter

Amir Yehudayoff
Professor
Datalogisk Institut, Københavns Universitet
amye@di.ku.dk
+45 93 89 53 88

Michael Skov Jensen
Journalist og teamkoordinator
Det Natur- og Biovidenskabelige Fakultet
Københavns Universitet
msj@science.ku.dk
+45 93 56 58 97

Følg pressemeddelelser fra Københavns Universitet - Det Natur- og Biovidenskabelige Fakultet

Skriv dig op her, og modtag pressemeddelelser på e-mail. Indtast din e-mail, klik på abonner, og følg instruktionerne i den udsendte e-mail.

Flere pressemeddelelser fra Københavns Universitet - Det Natur- og Biovidenskabelige Fakultet

AI method reveals millions of dead trees hidden among the living before California’s historic 2020 wildfires11.6.2024 13:26:57 CEST | Press release

University of Copenhagen scientists may have found a new explanation for the California wildfires of 2020. Applying AI to detailed aerial photos, they created a unique dataset detailing mortality down to single trees for all of California State. This revealed individual and clustered tree death spread out among the living on a large scale. The new AI-model will increase understanding of tree mortality and give us a chance to prevent droughts, beetles and flames from destroying the world’s forests.

AI-metode afslører millioner af døde træer, skjult blandt de levende, før Californiens historiske skovbrande i 202011.6.2024 11:47:41 CEST | Pressemeddelelse

Forskere fra Københavns Universitet har muligvis opdaget ny forklaring på de enorme skovbrande, der hærgede Californien i 2020. Ved at anvende AI på detaljerede luftfotos, har de skabt et unikt datasæt, der viser dødelighed ned til det enkelt træ i hele staten. Projektet har afsløret døde træer i klynger og enkeltvis - skjult blandt de levende i stor skala. Den nye AI-model vil øge forståelsen af trædød, og give os en chance for at forhindre, at tørke, biller og flammer ødelægger verdens skove.

I vores nyhedsrum kan du læse alle vores pressemeddelelser, tilgå materiale i form af billeder og dokumenter samt finde vores kontaktoplysninger.

Besøg vores nyhedsrum
HiddenA line styled icon from Orion Icon Library.Eye