Ytring
- Behov for en bredere og tydeligere KI-debatt ved NTNU
Eksternrepresentant i styret, Aiko Yamashita, mener NTNU må ha en bredere debatt og tydeligere retningslinjer for bruk av generativ KI i utdanning.
Ekstern-representant i styret, Aiko Yamashita mener vi må være aktsomme, og ikke benytte «blind adopsjon» eller være en «passiv bruker» av KI-teknologi. Bildet er fra styremøtet 16.oktober 2025.
Foto: Synne Mæle
Dette er en ytring. Innholdet i teksten uttrykker forfatterens mening.
I dag tar jeg på meg hatten som
djevelens advokat. La meg starte med å tydeliggjøre at ikke alle teknologier er like og
ikke skapt på samme måte.
Jeg starter med dette premiss og presiserer at ytringen hovedsakelig gjelder
kommersielle generative teknologier drevet av store selskaper i USA, som for eksempel ChatGPT.
Jeg er bekymret over at vi som universitet ikke har nok retningslinjer om, og ikke har hatt en åpen og bred nok diskusjon om, bruk av
disse teknologiene innen utdanning og vurdering av læringsmål.
Det er problematisk fordi da delegerer
vi nesten hele ansvaret til individer (studenter og PhD-kandidater) og
fakultetene, som allerede sliter med mangel på retningslinjer og definisjoner
om hva som er «fair use» og
etisk bruk. Jeg har selv opplevd hvor vanskelig og utfordrende det kan være
å vurdere individuelle og intellektuelle bidrag når det er tydelig at studentene har
brukt generativ KI til å skrive sine oppgaver. Og jeg er ikke alene.
La meg utdype litt. Anerkjente
forskere innen informasjonssøking
og lingvistikk snakker om hvor problematisk det er å bruke språkmodeller til å finne informasjon, gi
mening til informasjonen, og forklare/konkludere på selvstendig grunnlag. For
eksempel Professor Emily Bender, lingvist og forsker ved Washington University,
har påpekt at «kognitiv friksjon» er en nødvendig betingelse for å utvikle forståelse og mestring inne et tema/fagområde.
Å lære er vanskelig, og de må det være. En PhD-avhandling er et eksempel på
at reisen er viktigere enn destinasjonen. Hvis vi forstyrrer denne prosessen,
risikerer vi å frata kandidater den fundamentale evnen til å koble teori,
empiri, og logikk til å finne relevante spørsmål og svare på dem på en vitenskapelig måte. Dette gjelder også for bachelor- og masterutdanninger også. I vår økonomi er det akkurat denne type
kompetanse som muliggjør
faktabaserte, solide beslutninger.
For tiden er det stort fokus på å utvikle
nye former for vurderinger i lys av KI. Det virker å være mindre fokus innen undervisning.
Jeg mener at opplæring
er sentralt her. I diskusjonen om opplæring
forutsettes det ofte at det skal være
mer bruk av KI og andre digitale teknologier, ikke mindre bruk. Denne type tilnærming baseres på antagelser som ikke
er fullt forankret i den nyeste forskning.
Jeg mener vi må være aktsomme, og ikke benytte «blind adopsjon» eller være en «passiv bruker» av denne teknologien. En bedre tilnærming til digital kompetanse kan være:
- Lære hovedprinsipper om hvordan
teknologien fungerer
- Oppnå
en bedre forståelse på
mangler og begrensninger ved teknologien, og hvilke områder det er forsvarlig å bruke den på en måte som tar hensyn til kost-nytte og
risikoer.
- Lære å ha en sunn skepsis og hvordan å tolke argumentasjoner og bevis når man blir presentert for nye
kapabiliteter og «egenskaper» av denne type av teknologien
Samtidig må vi integrere psykososial
støtte som en pilar i våre utdanninger. Det er svært bekymringsfullt å se at ChatGPT kan
ta fra studenter evnen til kritisk tenking
og isolere dem ved å gi dem «emosjonelle støtte» gjennom vanskelige og utfordrende
tider.
Enig eller uenig?
Send oss din ytring på
Endelig, er det i mange offisielle
dokumenter en mangel på definisjoner på hva KI egentlig er, og hva som ligger
under KI-paraplyen. Snakker vi om store språkmodeller? Generative algoritmer?
Kommersielle eller akademiske versjoner? Snakker vi om
Neural Networks, Machine Learning, Natural Language Processing? Statistikk? Definisjoner er viktige,
uten disse kan vi ikke problematisere og heller ikke operasjonalisere mulige løsninger. Hvis vi snakker om generativ
KI må det sies eksplisitt.
For hver type KI må retningslinjer
utformes. Hvilken bruk forstyrrer ikke læringsprosessen?
Hvilken bruk er etisk forsvarlig? EN elefant i rommet er hvor etisk forsvarlig
er det å bruke disse teknologiene når
det begynner å være
tydelig at de truer miljø, arbeider, communities, barn, unger og kvinner, og våre nasjonal sikkerhet.
Samfunnsforskere advarer mot
systematisk «de-skilling» av
arbeidsstyrken som kan gi en teknologisk «lock-in». Amerikanske firmaer har vært utrolig dyktige til å selge
generative KI-løsninger
på ALLE mulige bruksområder,
noe som kan føre
til uforutsigbare konsekvenser for bedrifter.
Hvis vi som universitet mister evnen
til å forberede neste generasjon av forskere og fagpersoner vil dette ha enorme
konsekvenser for vår økonomi ang vårt samfunn.
Skal det være lov å bruke generativ KI til å skrive
avhandlinger i det hele tatt? Hvordan skal det vurderes? Hva er «fair use» og etisk forsvarlighet? Disse er noen spørsmål jeg mener må løftes høyt. Det som er i spill er så viktig at
jeg håper diskusjonen blir så bred som
mulig, basert på den nyeste vitenskapen. Jeg har god tro og tillit til at NTNU klarer å åpne debatten på
dette tema internt, og sammen med andre universiteter i Norge og rest av
verden.
Det er helt avgjørende hvis vi
skal lykkes med våre
samfunnsoppdrag.