EKSPERTOPPROP

- Kunstig intelligens utgjør eksistensiell trussel

Verdens ledere bør sørge for å redusere risikoen for utryddelse som følge av kunstig intelligens (KI), maner en gruppe ledere og teknologieksperter.

Opprop med én setning:«Å dempe utryddelsesrisikoen fra KI bør være en global prioritet ved siden av andre samfunnsmessige risikoer som pandemier og atomkrig»
Publisert Sist oppdatert

Oppropet består av kun én setning og ble tirsdag publisert på nettsiden til den ideelle organisasjonen Center for AI Safety.

«Å dempe utryddelsesrisikoen fra KI bør være en global prioritet ved siden av andre samfunnsmessige risikoer som pandemier og atomkrig», lyder setningen som over 200 eksperter og bransjefolk stiller seg bak.

Ifølge Center for AI Safety er målet med oppropet å innlede en diskusjon om teknologiens farer. Det står ingenting konkret om hva de mener er utryddelsestruet.

Blant dem som har signert, er Sam Altman, toppsjefen i selskapet OpenAI som skapte skriveroboten ChatGPT, som ved hjelp av svært lite informasjon kan lage lange tekster om nærmest hvilket som helst tema.

Frykter tap av kontroll

En annen som stiller seg bak oppropet, er Geoffrey Hinton, professor emeritus i datateknologi. Han utviklet deler av teknologien som danner grunnlaget for KI-systemer, og er kjent som en av bransjens «gudfedre».

Med på listen er også titalls akademikere og spesialister fra selskaper som Google og Microsoft, som begge leder an i utviklingen av KI.

Ekspertenes fremste bekymring er knyttet til at maskinene skal kunne utføre et så bredt Spekter av aktiviteter at de blir i stand til å utvikle sin egen programmering.

I så fall mener enkelte at mennesket kan miste kontrollen over superintelligente maskiner, og at dette kan få katastrofale følger for artene og planeten.

Men en mer nærliggende fare er at skriveroboter kan komme til å oversvømme nettet med desinformasjon, at tendensiøse algoritmer kan spy ut rasistisk innhold, eller at KI-drevet automatisering kan utradere millioner av arbeidsplasser.

Musk krevde pause

Oppropet ble publisert to måneder etter at Tesla-sjefen Elon Musk og hundrevis av andre publiserte et åpent brev der de ba om en pause i utviklingen av KI-teknologi inntil man er sikker på at den er trygg. Brevet vakte imidlertid omfattende kritikk fra de som mente at advarselen om en samfunnskollaps var sterkt overdrevet.

Den amerikanske akademikeren Emily Bender, som sammen med flere andre har forfattet en innflytelsesrik KI-kritisk artikkel, mente at oppropet hausset opp KI og ble laget for å skape blest om utviklingen.

Hun og flere andre kritikere har refset KI-selskaper for å nekte å offentliggjøre kildene for sine data eller røpe hvordan de er framskaffet – noe som gjerne blir omtalt som et «svart boks»-problem.

Altman, som for tiden reiser rundt i verden i et forsøk på å skape en verdensomspennende debatt rundt KI, har flere ganger hintet om at teknologien som hans eget selskap har utviklet, utgjør en global trussel.

– Hvis noe går galt med KI, kommer ingen gassmasker til å hjelpe deg, sa han til en gruppe journalister i Paris fredag.

Men han forsvarer fortsatt selskapets beslutning om ikke å offentliggjøre kildedata.