Kunstig intelligens:

Kunsten å ikke forsvinne i vrimmelen

En lærdom fra det amerikanske presidentvalget er at ytringsfrihet ikke har så stor verdi dersom ytringene forsvinner i vrimmelen. Kunstig intelligens kan utgjøre en del av problemet, og av løsningen.

Zeynep Tufekci, her under vitenfestivalen The Big Challenge i Trondheim i fjor, hvor hun snakket om «Sannheten i den digitale verden.» - Algoritmene fungerer som portvoktere til vår oppmerksomhet, sa hun på link under NxtMedia-konferansen forrige uke.
Publisert

Teknomedia-konferansen NxtMedia gikk av stabelen før helga. Den tyrkisk-amerikanske tekno-sosiologen Zeynep Tûfekci foredro om kunstig intelligens, algoritmer og presidentvalg: Via link delte hun erfaringer fra hvordan teknologi «påvirker sosial, kulturell og politisk dynamikk i samfunnet.»

Retten til å ytre seg, til å «produsere ord» får begrenset betydning dersom man ikke lykkes i å fange oppmerksomhet omkring ordene, framholdt Tûfekci.

- Algoritmene er «gatekeepers» til oppmerksomhet, slo hun fast.

En erfaring fra USA-valget er at det ikke nødvendigvis er sånn at man bare befinner seg i sitt eget ekkokammer og ikke hører den andre siden: Problemet er at det er en sterkt karikert versjon man hører, og ser, og leser om.

I denne sammenhengen mente hun myndigheter bør overveie å forby målrettet, algoritmestyrt politisk reklame.

Om å smi data til verdi

«NorwAI skal smi data til verdier.» Slik innleder pressemeldingen som presenterte nyheten om det nye forskningssenteret på kunstig intelligens – KI – eller AI på engelsk, derav tittelen på senteret NorwAI tar mål av seg å bli «det nasjonale kraftsenteret som samler de største aktørene innen industri og akademia.»

Intet mindre.

Når vi kikker gjennom UA-sakene om kunstig intelligens de siste 2-3 årene er det gjerne de mer skremmende perspektivene som dominerer. Artiklene er utstyrt med titler som « Kan algoritmer være onde», « Opprop mot dødelige autonome våpen», « Kunstig intelligens kan bygge, og true, demokratiet», « Tech-gigantene oppfører seg som mafiaorganisasjoner

I det minste én positivt vinklet artikkel fant vi dog: «Forskning på algoritmer kan avsløre falske nyheter». Denne artikkelen er for en vesentlig del basert på intervju med professor Jon Atle Gulla.

Professor Gulla er mannen som skal lede NorwAI. Han er opptatt av å alminneliggjøre KI.

- Den er en «commodity», et produkt som i prinsippet kan anvendes i nær sagt hvilken som helst kontekst. Omtrent som databasen, som også var nokså omveltende når den ble bredt tilgjengelig.

Kunsten å kople tilbake

Så hva er KI? Begrepet rommer ulike varianter – ANI, AGI, ASI (se faktaboks). I bunn og grunn dreier det seg om å systematisere store mengder data, forklarer Gulla.

- Dette er maskinlæring, å finne mønstre i svære datasett, og bruke mønsteret til å forutsi et attributt i nye momenter som kommer inn, forklarer han.

Konkret: Et anbefalingssystem for deg, der det foreligger informasjon om, la oss si hvilke artikler du finner interessante, vil det kunne enten anbefale eller legge bort den neste innkommende artikkelen – forutsatt at mengden data (antall artikler du har valgt å klikke deg inn på) er stor nok.

- Det er denne tilbakekoplingsmekanismen som utgjør paradigmeskiftet, ifølge professor Gulla.

- Denne tilbakekoplingsmekanismen kan manipuleres?

- Det kan den. Det er én utfordring. En annen er transparensen i mekanismene – hvordan algoritmene kommer fram til sine anbefalinger. Dette er noe vi forsker på, under overskriften «Explainable AI», forteller den nyutnevnte lederen for NorwAI.

Må vite hvorfor man blir anbefalt noe

Professor Gulla merket seg Tûfekcis advarsler mot de negative effektene av for individuelt rettede anbefalingssystemer.

- At enkeltpersoner får styrte anbefalinger uten at det framgår klart bakgrunnen for at noe anbefales mens annet skyves bort, er problematisk. Du vet ikke hva du blir anbefalt, og hvorfor.

Gulla peker imidlertid på at anbefalingsmekanismer også kan anvendes på kritisk vis, ved at algoritmene skyver fram alternative perspektiver.

- For å ta et enkelt eksempel: Om du er opptatt av å lese alt om RBK, kan algoritmene programmeres til å anbefale deg artikler som stiller kritiske spørsmål til sider ved lagets virksomhet.

- Vi er ikke ensporet

Det nye forskningssenteret har som formål «å utvikle banebrytende teorier, metoder og teknologi for effektiv og ansvarlig utnyttelse av data-drevet kunstig intelligens i innovative, industrielle løsninger,» slik Gulla formulerer det i en pressemelding.

- Kunstig intelligens har kraft i seg til å skape fundamentale endringer i den digitale transformasjonen Norge står overfor. Noen tror fremdeles at vi som forsker i dette feltet er ensporet, at vi har en bevisstløs tilnærming til KI og teknologiens virkninger i samfunnet. Det har vi ikke. Vi er opptatt av personvern, av transparens og av å bidra til å fremme alternative perspektiver. Dette vil forskningen ved senteret bære preg av, sier professor Jon Atle Gulla.

Fakta

Kunstig intelligens – begrepene:

Artificial Narrow Intelligence (ANI) er skreddersydd for å løse én spesifikk oppgave. All kunstig intelligens er, foreløpig, på dette nivået. ANI omfatter alt fra bilde- og talegjenkjenning til selvkjørende biler og robotstøvsugere. Mange systemer er dog basert på en sammensetning av flere ANI med forskjellige evner, såkalt hybrid-AI.

Artificial General Intelligence (AGI) har intelligens på nivå med et menneske. Dette er en maskin som kan utføre alle intellektuelle oppgaver som kan utføres av et menneske. Ingen har, i skrivende stund, lyktes med å demonstrere kunstig intelligens på dette nivået. I 2017 fantes det 45 aktive forskningsprosjekter som adresserer AGI.

Artificial Super Intelligence (ASI) er et nivå som langt overgår de skarpeste og flinkeste menneskene verden har sett. Det har åpenbart et stort potensial, men det har også mange etiske problemstillinger knyttet til seg.

Rolf Dyrnes Svendsen t.v. og Jon Atle Gulla forener krefter i Davids kamp mot Goliat.