Teknologier Artificial Intelligence / Machine Learning / Deep learning

AI er bedre til skak end til sund fornuft

Dataingeniøren Melanie Mitchell har siden 1984 været førende inden for amerikansk AI-forskning. Udviklingen har på mange områder overgået forventningerne, men kunstig intelligens viste sig at være den sværeste nød at knække.

Melanie Mitchell, professor i datavetenskap vid Portland State University, är aktuell med boken "Artificial Intelligence, A guide for thinking humans".
Melanie Mitchell, professor i datalogi, er aktuel med bogen "Artificial Intelligence, A guide for thinking humans".
Melanie Mitchell er professor i datalogi ved Portland State University og en hyppigt citeret forfatter inden for kunstig intelligens. Vejen dertil begyndte med en ph.d.-stilling hos Douglas Hofstadter, en af de mest fremtrædende forskere inden for AI, i begyndelsen af 1980'erne. Som nyuddannet matematiker havde hun ingen erfaring med programmering, men efter at have læst Hofstadters nu klassiske bog GEB, var hun sikker på, at det var det, hun ville arbejde med.

Det var i begyndelsen et forholdsvis snævert forskningsområde på universiteter og højere læreanstalter, og kun få troede, det ville få større betydning, men billedet ændrede sig i 1997, da IBM's skakcomputer Deep Blue besejrede den daværende verdensmester Garry Kasparov. I 2001 gjorde IBM's Watson det samme i Jeopardy, og AlphaGo vandt 4-5 over en af de førende spillere i Go. Siden er AI-programmer som Google Translate og Apples taleassistent Siri blevet en del af vores hverdag.

Smartere end et menneske

Forventningerne er store, men det er frygten også. Hvad sker der, når AI's evner overgår vores egne?

Generelt kan man sige, at AI er god til begrænsede opgaver som f.eks. at spille skak eller genkende ansigter, men ikke til ting, der kræver almenviden og erfaring.

Bogen The Singularity is near, som er skrevet af Googles udviklingschef Ray Kurzweils i 2005, beskriver et fremtidsscenarie, hvor AI udvikler sig, så vi ikke længere har kontrol over den, og det får skæbnesvangre konsekvenser for menneskeheden. Et hændelsesforløb, man kender fra mange science fiction-film.

Hvis man vil finde ud af, hvor fjernt et sådant scenarie er, bliver man nødt til først at definere, hvad der menes med intelligens.

– Opfattelsen af intelligens som noget målbart har vildledt mange mennesker. Det er et spektrum og kan bruges på mange forskellige måder. John McCarthy, der opfandt begrebet kunstig intelligens i 1956, ønskede sommetider, at han havde kaldt det noget, der ikke var så værdiladet, siger Melanie Mitchell.


AI-forskning har meget at lære af naturlig intelligens, og hvordan vi mennesker håndterer og bruger viden i vores hverdag.

Melanie Mitchell har i øjeblikket orlov fra sit professorat og sidder på sit kontor på Santa Fe-instituttet i New Mexico.

Det er kompliceret at definere intelligens

– Generelt kan man sige, at AI er god til begrænsede opgaver som f.eks. at spille skak eller genkende ansigter, men ikke til ting, der kræver almenviden og erfaring.

For AI er det de vanskelige opgaver, der er nemme, mens de nemme opgaver er svære, f.eks. at drage generelle konklusioner ud fra de ting, der er omkring os. Med tilstrækkelig meget træningsmateriale kan vi lære AI at genkende katte i en video på YouTube, men det forudsætter, at et menneske leverer både informationerne og opgaven. Hos mennesker kan allerede et lille barn se forskel på en hund og en kat, selv om begge har fire ben og en hale.

Mange går ind for, at mennesket altid skal have det sidste ord, når menneskeliv er i fare.

Siden Melanie Mitchell begyndte at forske i AI, er det bl.a. gået op for hende, hvor lidt vi i virkeligheden ved om den menneskelige hjerne. AI-forskningen har meget at lære af den naturlige intelligens og af, hvordan vi mennesker indsamler og bruger viden i vores hverdag.

– Udviklingen af vores computere har været eksponentiel. De er blevet mindre og hurtigere. Men softwaren har ikke gennemgået den samme udvikling.

Overlegen inden for afgrænsede områder

Computere kan i dag ikke bruge intelligens uden for de områder, de er trænet i. Hverken Deep Blue eller AlphaGo ville være i stand til at spille ludo. Overførsel af viden fra et område til et andet ligger langt ud i fremtiden. Men måske er det muligt at finde nøglen ved at studere kognitiv og psykologisk forskning for at forstå, hvordan den naturlige intelligens fungerer.

Melanie Mitchell fortæller, at der lige nu er to skoler inden for AI-forskningen: Dem, der tror, de kan klare udfordringen ved at tilføre flere data, og dem, der ligesom hun mener, at man er nødt til at forstå intelligens mere generelt for at komme videre.

Bilkørsel kræver hurtige beslutninger

Det, vi kalder sund fornuft, er ofte en evne til at lære af sine erfaringer og bruge den viden, man har, i nye situationer.

– AI klarer sig godt på områder som f.eks. skak og Go, hvor reglerne er specifikke. Men i det virkelige liv er der ingen klare regler for, hvordan vi skal forholde os.

Det forklarer også, hvorfor vi ikke er kommet længere med selvkørende biler, selv om der har været eksperimenteret med dem siden 1980'erne.

Självkörande bilar
Selvkørende biler skal ikke kun lære at afkode medtrafikanter, men også færdselstavler, trafiksignaler, skilte og anvisninger – i al slags vejr – for at kunne færdes sikkert i trafikken.

– Problemet med biler er, at vi hele tiden havner i nye situationer. Hvornår er det fornuftigt at stoppe på grund af en forhindring på vejen? Når vi støder på en flyvende plastpose, eller når der ligger glasskår på vejen?

Som mennesker ved vi, at konsekvenserne af at køre over glasskårene er større end ved påkørsel af den flyvende plastpose, men det er straks vanskeligere at programmere algoritmer, der foretager den vurdering.

Et spørgsmål om liv og helbred

Der er også etiske dilemmaer at tage stilling til, når man overlader beslutningerne til algoritmer. Hvad vælger den selvkørende bil, hvis den havner i en situation, hvor den skal vælge mellem at ofre passagerens liv eller påkøre fire fodgængere? De fleste er enige om, at bilen skal ofre passageren, fordi det betyder, at færrest mennesker kommer til skade. Men hvis man i stedet spørger, om de har lyst til at købe sådan en bil, er svaret nej.

– Mange går ind for, at mennesket altid skal have det sidste ord, når menneskeliv er i fare.

Kan man lære AI moral?

– Det er vanskeligt, fordi det forudsætter, at man udvikler en AI, der forstår konceptet.

Robotteknologiens tre regler

I science fiction-romaner fortælles der sommetider om robotteknologiens tre regler, som går ud på, at en robot aldrig må skade et menneske. Men Melanie Mitchell siger, at "skade" er et diffust begreb. På samme måde som det er vanskeligt at definere, hvad der er god opførsel. Det varierer fra situation til situation og ser forskelligt ud i forskellige samfund.

Der er en forestilling om, at beslutninger, der tages ved hjælp af AI, er helt fordomsfrie og rationelle. Men det er et billede, Melanie Mitchell ikke kan genkende.

– AI er afhængig af de data og den programmering, den har adgang til. Resultaterne skal derefter fortolkes af et menneske.


Hvornår er det i orden at bruge ansigtsgenkendelse til at identificere personer på offentlige steder?

Med det træningsmateriale, der bruges til at udvikle ansigtsgenkendelse, fungerer disse tjenester i dag bedre i forhold til hvide mænd end i forhold til mørklødede og kvinder. Og hvordan forholder det sig egentlig med AI i forbindelse med ansættelsesprocedurer?

– Al kan opfange statistiske mønstre om ting, vi ikke har planlagt. Det kan f.eks. dreje sig om, hvilke efternavne virksomhedens tidligere ansatte har. Et menneske forstår, at disse oplysninger ikke er relevante, men det kan AI ikke altid vurdere.

Transparent AI

EU har i dag persondataforordningen GDPR, som regulerer retten til på en transparent og tilgængelig måde at få at vide, hvordan et IT-system har foretaget en vurdering af ens person, såkaldte algoritmebaserede automatiske afgørelser. I praksis kan det være svært præcist at få at vide, hvordan et kreditvurderings- eller markedsføringssystem fungerer, og hvilke data det har haft adgang til.

Melanie Mitchell slettede sin Facebook-konto som en reaktion på virksomhedens opførsel i forbindelse med Cambridge Analytica-skandalen, hvor det blev afsløret, at data fra 50 mio. brugere var blevet indsamlet uden tilladelse.

– Det irriterede mig. Og jeg har faktisk ikke savnet at være på Facebook, jeg er på Twitter, siger hun.

Ansigtsgenkendelse og deep fakes

Efterhånden som AI anvendes på flere og flere områder, stiger behovet for en lovgivning, der holder trit med samfundsudviklingen og gør det muligt for borgerne at føle sig trygge ved teknologien.

Hvornår er det f.eks. i orden at bruge ansigtsgenkendelse til at identificere personer på offentlige steder? Og hvordan kan man beskytte sig mod manipulation med deep fakes – videoer manipuleret ved hjælp af AI, så brugerne tror, de ser en virkelig begivenhed eller udtalelse, der dog aldrig har fundet sted.

Selv om fremtiden bringer mange udfordringer, tror Melanie Mitchell, at AI vil give fantastiske muligheder. Ikke mindst i sundhedssektoren, hvor AI kan bruges til at diagnosticere patienter og finde nye behandlinger.

Det er meget usandsynligt, at vi i den nærmeste fremtid kommer til at opleve en ondskabsfuld supercomputer som HAL i Stanley Kubricks klassiske rumeventyr Rumrejsen år 2001. Men det er vigtigt at være opmærksom og prioritere sikkerheden, når det drejer sig om kunstig intelligens og vores brug af AI.

Tilmeld dig vores nyhedsbrev

Tilmeld dig vores nyhedsbrev og få spændende artikler og interviews med fokus på det nyeste inden for kundekommunikation.

Kom i gang!