- Kina og USA driter i personvern

Arendal: - Kina driter i personvern når det gjelder utvikling av kunstig intelligens, sier Telenors forskningsdirektør Bjørn Taale Sandberg, og fortsetter: – USA driter nesten i det. Det gjør ikke EU.
- Å ikke ta i bruk mulighetene som ligger i kunstig intelligens kan være like etisk utfordrende som å ta dem i bruk, mener forskningsdirektør Bjørn-Taale Sandberg i Telenor. 
        
            (Foto: Tore Oksholen)

- Å ikke ta i bruk mulighetene som ligger i kunstig intelligens kan være like etisk utfordrende som å ta dem i bruk, mener forskningsdirektør Bjørn-Taale Sandberg i Telenor.  Foto: Tore Oksholen

Likevel, og her er Sandberg og Folkehelseinstituttets direktør Camilla Stoltenberg på linje – ikke å ta i bruk den kraftfulle teknologien som KI er, vil være minst like etisk problematisk som å ta den i bruk.

Eksotisk

Kunstig intelligens (KI) er så vidt i startgropen på noe som utgjør en voldsom utvikling. Myndigheter, næringsliv, byråkrati og ikke minst forskningsinstitusjoner jobber for harde livet med å håndtere utviklingen. Det man vet er at svært mye vil bli forandret. Men hva, hvordan?

LES OGSÅ: Kan algoritmer være onde?

LES OGSÅ: KI kan bygge, og true, demokratiet

- Kunstig intelligens høres eksotisk ut. Det er det også. Google Translate benytter seg av en teknologi som er helt unik. Noe av det som har sjokkert oss er hastigheten i utviklingen, det være seg autonom mobilitet – til havs, på vei, i lufta, sa Bjarne Foss da han innledet før debatten.

Vi snakker om en perfekt storm: kombinasjon av ulike teknologier – 5G, IoT (tingenes internett) og KI (kunstig intelligens).

Men hva med personvernet? Tyske bilprodusenter tester ut selvkjørende biler i Kina. Da vil kinesiske myndigheter ha tilgang til persondataene. Hvor bra er det?

Foss viste til en lovmessighet som tilsier at ved utvikling av en ny teknologi så formår skaperne av den ikke å overskue konsekvensene av den nye teknologien gir. Men straks den foreligger, må vi alle forholde oss til disse konsekvensene – uavhengig av i hvilken grad vi håndterer dem, sa NTNUs prorektor for forskning, og viste til NTNU og Sintefs innspill til Regjeringens handlingsplan for en nasjonal strategi for KI. Debatten under Arendalsuka hadde dette som inngang: Er vi klare for det store spranget?

Når det fysiske blir digitalt synlig

Prediksjon og vurdering: Alle store og små beslutninger vi tar består av disse to faktorene. KI gjør de to likere og likere, det innebærer store økonomiske fortjenestemuligheter. Når alle gjenstander registreres i et tredimensjonalt, digitalt grid, øker denne prediksjonskraften voldsomt.

- KI er den store utviklingsdriveren. Når alt som beveger seg får en sensor påmontert så vil den fysiske verden bli synlig for kunstig intelligens, sa Telenors forskningsdirektør Bjørn Taale Sandberg.

Når det gjelder utviklingen av KI og personvern tegnet Sandberg et dystert bilde av de to supermaktenes holdninger.

- Personvern og utvikling av KI? Norge ligger langt bak Kina, Kina driter i det. USA driter nesten i det, sa Sandberg, og la til:

- EU driter ikke i det. Det er også sterke krefter som tar enkeltindividenes rettigheter her på alvor.

Men selv om det er store etiske utfordringer med å ta KI i bruk er det like store etiske utfordringer med ikke å ta KI i bruk. Det er store gevinster å hente, innenfor helse og andre områder, poengterte han.

Ikke å bruke KI også etisk vanskelig

Overfor Universitetsavisa utdypet Sandberg dette slik:

- Personvern er uhyre viktig. Men det vil være feil å oppfatte etikk i forhold til KI og personvern som utelukkende et spørsmål om bare å beskytte data og ikke ta dem i bruk. Etikken her handler minst like mye om at ikke å ta denne teknologien i bruk til gode ting, for verdiskapning, kan bli like etisk problematisk.

- På hvilken måte?

- La oss si at du har et diagnoseverktøy for kreft, som stiller riktig diagnose i 98 prosent av tilfellene. Verktøyet er så billig at vanlige legekontorer kan begynne å anvende dem. Er det da etisk riktig ikke å ta verktøyet i bruk fordi dataene kommer fra Kina? Eller: Skal vi la være å ta i bruk nye løsninger fordi vi er urolige for at dataene lekker? Vi må diskutere disse sakene. Vi må også ha et etisk regelverk som åpner for læring og eksperimentering.

KI og demokrati

- Du forteller om hvordan man kan registrere alt som rører på seg og som dermed gjør den fysiske verden synlig digitalt. Hva innebærer det for oss mennesker?

- Vi kan konfigurere den fysiske verden digitalt. I en bedrift kan produksjonslinjen optimaliseres mye smartere enn i dag. I by kan trafikken styres mye mer intelligent enn i dag. Et lite eksempel: Lyssignaler kan kontinuerlig styre hvor mye biler som slippes over et kryss i forhold til optimal flyt i trafikken. Og så videre.

- Hvor viktig er demokrati i dette?

- Avgjørende. Om disse teknologiene misbrukes, slik vi ser tegn til i Kina, gir de ikke-demokratiske regimer mulighet til å totalovervåke befolkningen digitalt.

Faresignalene til tross: Telenors forskningsdirektør gleder seg til framtida.

- Jeg gleder meg til å se konsekvensene av KI på lang sikt, de kommer til å bli av typer vi ikke ser. Særlig ettersom jeg regner med å bli 130 år, spøkte han.

Stoltenberg: - KI bør trivialiseres

Camilla Stoltenberg, direktør i Folkehelseinstituttet var i Arendal blant annet for å diskutere kunstig intelligens, etikk og muligheter. 
        
            (Foto: Tore Oksholen)

Camilla Stoltenberg, direktør i Folkehelseinstituttet var i Arendal blant annet for å diskutere kunstig intelligens, etikk og muligheter.  Foto: Tore Oksholen

 

Camilla Stoltenberg, direktør for Folkehelseinstituttet, gleder seg også til å se konsekvensene av KI på samfunnet. Hun regner ikke med å bli 130 år, så hun kjenner hun har vesentlig dårligere tid.

- Men konsekvensene er allerede her. Googles søkemotor påvirker meg i mitt liv.

- Jeg er opptatt av å trivialisere kunstig intelligens. Den kan misbrukes, og brukes til det gode. Derfor bør vi tenke på dette nå, hvordan vi anvender den, og da er jeg særlig opptatt av dataene våre, sa hun.

- Den viktigste datakilden er deg, men en svært viktig kilde er også fellesinstitusjonene. Samfunnsinstitusjonene samler inn data, følgene av det har vi ikke tatt inn over oss.

- Redd feil ting

På spørsmål fra Universitetsavisa om hvor riktig plassert vår frykt når det gjelder personvern og KI er, svarer Stoltenberg slik:

- Jeg er redd vi ikke er redd de rette tingene. Det er ikke grunn til å være redd for teknologien i seg selv. Vi er vant til å håndtere store teknologiske endringer og ta i bruk teknologi til gode formål, og til å håndtere om de anvendes til dårlige formål.

Det vi bør være redd for, er om vi er tilstrekkelig fremoverlente når det gjelder å gjøre de rette tingene for å ta i bruk teknologien på rett måte, mener hun.

- Vi må være opptatt av data der Norge har noe enestående å bidra med, sier Stoltenberg. Det gjelder i første rekke helseregistre og helseundersøkelser som Hunt og MoBa - den norske mor, far og barnundersøkelsen -  der mer enn en halv million innbyggere i Norge deltar over tid.

- Vi må foredle slike data, utvikle forvaltningen juridisk og personvernmessig, og vi må sørge for at verdien av data kommer fellesskapet til gode.

En nøkkelfaktor der er at en god og demokratisk kontroll av data. er under demokratisk kontroll.

- Slik kontroll har man ikke der hvor markedskreftene rår som USA kan være et eksempel på, heller ikke der ettpartistaten rår, som Kina er et eksempel på.

Tillit

- Sandberg sa det slik: Kina driter i personvern når det gjelder KI, USA driter nesten i det. At det fins svært sterke krefter der ute i verden som ikke bryr seg om personvern, i hvilken grad er det et problem for Folkehelsas direktør?

- Jeg oppfatter ikke det som et problem i Norge. Folks tillit til hvordan deres helsedatas anvendes er høy. Slik er det med god grunn fordi det har vært gjort mye for å sikre personvernet i Norge og Europa.

Dette jobbes det videre med, forsikrer Stoltenberg, og vender tilbake til spørsmålet om hvem som skal nyte godt av verdiene disse dataene genererer.

- Vi må sørge for at verdiene som ligger i helsedata og andre offentlige data kommer tilbake til fellesskapet for eksempel gjennom skattlegging, og at vi ikke ender opp med å bli en ren råvareleverandør av data, sier Camilla Stoltenberg.

Under debatten adresserte næringslivsleder Walter Qvam dette ved å vise til prinsippet om Hjemfallsrett. Den var essensiell ved inngangen til petroleumsalderen. Hvordan sikrer man at norske virksomheter får sikret tilgang til å anvende norske persondata? Også Forskningsrådets direktør John-Arne Røttingen var opptatt av det. Han minnet om at man her er avhengig av å forholde seg til et internasjonalt regelverk.

Fordomsfulle algoritmer

Grunder i inFuture, Camilla AC Tepfers, minnet om at data ikke er garantert fordomsfrie, men kan være forurenset av menneskers fordommer, som for eksempel algoritmer som anvendes som digitalt hjelpemiddel for appelldomstoler i USA som skal vurdere om saker skalAha!  gjenopptas, og forskjellsbehandler svarte i negativ retning. Så også algoritmer kan bære med seg rasefordommer og andre fordommer.

Røttingen grep fatt i dette, ved å vise til at slik problematikk med store datasett har eksistert og vært kjent i mange tiår.

- Spranget er når datamengden blir så stor og digitaliseres og blir såkalte black box 'er, og vi egentlig ikke lenger forstår hva som foregår av matematiske beregninger inni boksen, sa Røttingen.

Arendalsuka 2019
 
        
            (Foto: Espen H Bjørgan)

  Foto: Espen H Bjørgan

  • Arendalsuka ble første gang arrangert i 2012. Primus motor i arrangementet har vært tidligere fylkesmann og SV-politiker Øystein Djupedal.
  • Siden den gang har oppslutningen økt jevnt og trutt. Ifølge arrangørene samler årets rundt 1200 arrangement over 1500 aktører. Organisasjoner tilknyttet Akademia utgjør en voksende del.
  • I år er første gang Rådet for Arendalsuka belsuttet å utestenge en organisasjon på prinsipielt grunnlag. SIAN (Stopp islamiseringen av Norge) og FMI (Folkebevegelsen mot innvandring) ble ekskludert ut fra prinsippet om at «organisasjoner som sprer hatefulle ytringer og har en aggressiv oppførsel, kan ha en ekskluderende og lammende effekt på andres deltakelse og engasjement.»
  • NTNU deltok for første gang i 2015, med rektor Gunnar Bovim i spissen. Det var også første året norske universitetsledere var synlig til stede.
  • Det er en topptung NTNU-delegasjon som stiller i Arendal denne uka. Hele rektoratet deltar.. Rundt 25 personer deltar, i hovedsak ledere, forskningsledere og kommunikasjonsfolk.
  • Ifølge kommunikasjonsavdelingen regner NTNU med å bruke om lag 300 000 kroner på sin tilstedeværelse under årets arrangement. Fokus vil være å fremme NTNUs satsingsområder helse, havrom, vindkraft og nasjonal digital strategi.
UA vil gjerne ha dine kommentarer. Kommentarer fra anonymiserte brukere og kommentarer med personangrep vil bli slettet. Kommentarer som inneholder lenker må godkjennes manuelt. Det kan derfor ta noe tid før slike kommentarer dukker opp i kommentarfeltet.
comments powered by Disqus
Siste fra forsiden

UiO og NTNU med nye forskningsetiske tiltak

Ved Universitetet i Oslo har de opprettet et eget vitenskapsombud. Ved NTNU ruller de snart ut et obligatorisk nettkurs for doktorgradsstipendiater.

Gjesteskribenten:

Jeg ble redd etter at jeg skrev om sang i skolen

Da Nora Kulset skrev et lite blogginnlegg om sang i skolen, erfarte hun at det finnes nettroll der ute som skriver stygge e-poster. Skikkelig stygge e-poster.

Ytring:

Fem spørsmål til den som vil bli rektor ved NTNU (ok, sju da)

Nina Lager Vestberg kommer med sine innspill til spørsmål som bør stilles i intervjurunden.

Rektorjobben ved NTNU:

Aalborg-rektor sier han ble oppfordret til å søke

- Det er vanskelig å si nei når man får en slik mulighet, sier rektor Per Michael Johansen ved Aalborg Universitet om jobben som rektor ved NTNU.