Kunstig intelligens: Tre spørgsmål, journalister skal stille

 

Virker kunstig intelligens, maskinlæring og algoritmer som sorte bokse? Så får du her tre spørgsmål, som kan lette på låget.

 


Af Magnus Bjerg (@MagnusBjerg)

Magnus  er journalist og digital projektleder i TV 2 Nyhedernes redaktionelle udviklingsteam, men for tiden på orlov som Knight Science Journalism Fellow på Massachusetts Institute of Technology i USA. Der vil han dykke ned i, hvordan journalister og udviklere kan arbejde tættere sammen.


 

Under mit Knight fellowship på MIT er der én ting, der dukker op igen i stort set samtlige sammenhænge: Kunstig intelligens.

AI og maskinlæring bliver brugt til alt fra identifikation af russisk propaganda til udmåling af kaution i amerikanske retssale, og det næste år kommer det kun til at gribe endnu mere om sig. Også i Danmark.

Derfor bør alle journalister lære sig de mest elementære principper, så de kan gå kritisk til alle, der namedropper de hypede begreber.

Det er teknisk, men heldigvis har Momin M. Malik, der er data science fellow på Harvards Berkman Klein Center, hjulpet mig med tre spørgsmål, vi altid kan stille.

 

1) Hvilken model er der tale om?

Ifølge Malik er begreberne ‘kunstig intelligens’, ‘maskinlæring’, ‘predictive analytics’ og ‘neurale netværk’ blot nogle af de mange navne, der bliver brugt til at beskrive det samme område, som der er blevet arbejdet på siden 1950’erne.

 

 

Men idéen om at skabe en ægte kunstig intelligens, der kan læse næsten hvilken som helst opgave er generelt blevet droppet overalt, bortset fra i Hollywood. Der gemmer sig ikke noget tænkende væsen under låget på din Macbook.

Når du hører eksperter tale om AI, ML og så videre i dag, så er deres fokus meget snævert. Det er nemlig bare matematik – mere specifikt er der tale om forskellige statistiske modeller, der hver har deres styrker og svagheder.

Derfor bør du spørge, om der er tale om et ‘decision tree’ (et ‘beslutningstræ’ på mindre mundret dansk).

Hvis ja, kan du være heldig. Beslutningstræer er en af de simpleste modeller, der kan være simple nok til at kunne forstås af almindelige mennesker. Andre modeller som ‘neurale netværk’ eller ‘random forests’ er langt mere komplekse og esoteriske. Beslutningstræer derimod kan være simple nok til, at statistikeren bag kan gennemgå modellens forskellige forgreninger.

 

2) Hvor nøjagtig er modellen (og hvad er det baseret på)?

Maskinlæring er grundlæggende baseret på to sæt data: Træningsdata og testdata. Du fodrer maskinen med det første sæt for at lære den korrelationerne i datasættet, som den kan omsætte til en model.

Et almindeligt eksempel er passagerlisten fra Titanic. Lad os sige, at du tager halvdelen af listen, der indeholder alder, køn, billettype, billetpris samt om passageren druknede eller overlevede. Det er din træningsdata.

Ud fra datasættet kan du med statistisk software som R beregne en model, der kan anslå sandsynligheden for, at en ny passager overlever, hvis du har personens alder, køn, billettype og pris.

Den anden del af passagerlisten kan du så bruge til at beregne, hvor præcis din model er ved at se, hvor ofte den gætter det rigtige udfald (død eller levende).

Folk, der sælger software, der indeholder AI, kan finde på at prale med nøjagtigheder på op imod 100 procent. Men der er mange måder at beregne den slags tal, og man kan også tweake din model så meget, at den måske gætter rigtigt på al din testdata, men klarer sig dårligt ude i virkeligheden.

Et godt eksempel på det, opdagede en af forskerne på MIT’s Medialab for nylig. Jeg tager selv et fag i Medialab, der er et skørt sted, hvor ingeniører, kunstnere og programmører arbejder sammen i et skørt fremtidsværksted. Forskeren hedder Joy Buolamwini, og hun arbejdede med en model til ansigtsgenkendelse, hun bare ikke kunne få til at virke.

 

Foto: Niccolò Caranti / Wikimedia Commons

Foto: Niccolò Caranti / Wikimedia Commons

 

Den virkede fint på hendes venner og kollegers ansigter, men først da hun selv tog en hvid maske på, bemærkede den kunstige intelligens, at hun sad foran kameraet(!).

Hun har siden dokumenteret, at mange kommercielle ansigtsgenkendelses-algoritmer er så dårlige til at genkende sorte kvinder, at de lige så godt kunne slå plat eller krone om deres køn. Pudsigt nok virker de super godt på hvide (mænds) ansigter.

Derfor er det altid godt at spørge ind til hvilke testdata, der er brugt til at beregne nøjagtigheden. Det kan være med til at afsløre indbygget bias, der har det med at gå hårdest ud over minoriteter.

Ifølge Momin M. Malik er det altid et rødt flag, hvis modellen kun er trænet på historiske data.

“Den bedste test af en model sker med data, der er indsamlet, efter modellen blev lavet. Men denne type test sker ofte ikke,” siger Momin M. Malik.

Det kan i mange tilfælde være ok med historiske data, men af åbenlyse grunde bør Titanics passagerliste ikke bruges til at forudse overlevelseschancerne på moderne krydstogtskibe.

 

3) Hvad er målet med modellen, og kan dens træningsdata svare på det?

I bund og grund er AI et forsøg på at forudsige resultater ved hjælp af store datasæt. Så det er vigtig hvilke data, du fodrer den med. Nogle data kan bare være støj og antyde sammenhænge, der ikke er der.

Det kan godt være, at vi oplysninger hårfarven på Titanics passagerer eller antallet af bogstaver i deres navne, men det burde jo ikke betyde noget for deres overlevelseschance.

Når man smider alt, hvad man har, ind i en model uden nogen teori eller tanke bag, kaldes det “data dredging” eller forplumring.

 

 

En anden og mere subtil pointe: Selvom mændene på Titanics dæk druknede langt oftere end kvinderne, så var det ikke på grund af deres køn. De druknede på grund af retningslinjen om at kvinder og børn skulle først i redningsbådene. Men det kan modellen ikke fortælle dig, fordi det ikke fremgår af datasættet.

“Mange problemer i maskinlæring handler om kausalitet,” siger Momin M. Malik:

“Vi skal huske, at forudsigelsen kun er korrelation.”

Til de særligt interesserede i emnet anbefaler han bogen ‘Artificial Unintelligence’ af Meredith Broussard, hvis man virkelig vil lære noget om den kunstige intelligens begrænsninger.

Revisionspligt for algoritmer

Vi kommer det næste år til at se mange flere eksempler på, hvordan kunstig intelligens og maskinlæring kan bruges til at løse umulige opgaver, men også skabe uforudsete og usynlige problemer. Derfor skrev en gruppe eksperter fra Harvards Business School for nylig også, at algoritmer bør underkastes samme revisionspligt, som regnskaber i børsnoterede virksomheder længe har været under.

Ligesom algoritmer er regnskaber nemlig en sort boks, som kan misbruges af dem med indblik i, hvad der foregår på indersiden. Det lyder umiddelbart klogt.

Allerede næste år kan MIT’s Medialab være klar med første version af deres Turing Box Project, et stykke software der lover at kunne hjælpe med at revidere algoritmer. Det er på tide, vi også bliver bedre til at gå kritisk til emnet, så det ikke ender som sorte bokse.

 



 

« Se alle forudsigelserne for 2019

 

Artiklen har tidligere været bragt på Medium / Towards Data Science »

Originalfoto: Matan Segev / Pexels

Standard

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *