Språkmodellene trenger regulering, ikke heiagjeng

Debatt: Etter ett år med ChatGPT er det fremdeles ingen nasjonale føringer for hvordan vi skal tilpasse undervisning og høyere utdanning. Det er helt krise.

Publisert Sist oppdatert

Høyre går høyt ut med at de vil ha regler for bruk av kunstig intelligens i skolen. «Hurra», tenkte jeg, endelig er det noen som er faste i klypa, der andre går rundt med slappe vinterfingre i polvottene.

Det er jo i tråd med det Norges mest fremstående KI-ekspert, Inga Strümke sier: «Vi lever i det tredje semesteret med ChatGPT uten retningslinjer for lærere og undervisere om hvordan de skal tilpasse undervisningsopplegg. Det er spektakulært, på en dårlig måte.»

Men nei da, Høyre har ikke fulgt med i timen som omhandlet KI likevel, til tross for at nevnte Strümke har vært med i ekspertutvalget som har vært med å lage rapporten «Neste steg for kunstig intelligens», som Høyre baserer uttalelsene sine på.

I rapporten skriver de: «Notatet er blitt behandlet i Høyre og løsningene som foreslås i denne rapporten svarer derfor ikke nødvendigvis med meningene til hvert enkelt medlem fra ekspertutvalget.»

Jeg håper virkelig ikke at tidligere digitaliseringsminister Linda Hofstad Helleland blir fremtidig digitaliseringsminister med denne holdningen: «Norge kan lykkes med kunstig intelligens, men da holder det ikke å kun sette rammer, vi må også gripe muligheter.»

Ingen setter rammer

Nå er det til informasjon ingen som har satt rammer, og ingen som evner å sette rammer for bruken av kunstig intellgens. Det å sette rammer skjer faktisk ikke. Problemet er faktisk så stort at det ikke kan løses politisk i lille Norge alene. Hva skjer når problemer er for store innenfor skole til at politikerne kan løse de, jo da delegeres problemet til lærerne, som en gave for dere metodefrihet. I delegeringsprosessen blir også problemet lystig og hastig omdefinert til «mulighet».

Det blir sagt at KI har kommet for å bli. Det samme har heroin, kreft og forurensing. Argumentet er for hult, med mindre vi aksepterer at AI også er en sykdomskilde som vil forgifte elven som renner inn i vårt felles kurbad, skolen. Alle som kjenner sin Ibsen, burde ta den referansen. Den giftige elven må faktisk reguleres før vi slipper vannet inn i kurbadet. 

Når den politiske utfordringen med dette er tatt på alvor, og vi virkelig har rammer for KI som kan regulere når vi vil bruke denne språkteknologien eller ikke, da kan vi begynne å snakke om muligheter.

La meg være helt konkret: En elev kan bruke KI til å lage en tekst som eleven kaller sin egen. Læreren kan ut fra sin kjennskap til elevens skrivestil- og historikk se at dette har ikke eleven gjort selv. I motsetning til med en plagiatkontroll, kan ikke læreren bevise at det er jukset, slik at eleven bare kan stå på sitt om at det er hans/hennes arbeid. Svarteper går til lærer, som kan ende opp med en krenkesak av det hele: «Hen tror ikke på meg!»

Utdanning leder frem til karakterer, som gir valgmuligheter når du bruker dem til å konkurrere om skoleplass. KI er et konkurransefortrinn, som kan hjelpe eleven frem til de karakterene hen ønsker. Om en tenåring da skal velge å være etisk renhårig, eller la jukserne ta hans/hennes rettmessige plass på søkerlistene, går nok dessverre majoriteten for den digitale bloddopingen.

Handlingslammelse

Akkurat nå er lærerne bundet på hender og føtter. Elevene kan jukse og styre på, og vi har ingen midler til rådighet for å skille ut hva som er autentisk eller ikke. Vi som er lærere og som er både digitalt og analogt orienterte i vår gjerning, ser mengder av muligheter, på godt og vondt. Så langt veier mulighetene for vondt langt mer enn mulighetene for godt. Den politikeren som tar denne konkrete virkeligheten på alvor, skal jeg lytte på, men akkurat nå er alle like handlingslammede.

Vi lærere kjenner så inderlig godt til den digitale virkeligheten som elevene (og vi voksne) lever i, og kreftene som suger oppmerksomheten. Strümke sier det som vi alle vet: «Det er kjempevanskelig å ha selvdisiplin og styre seg selv og kontrollere impulsene sine på digitale plattformer – særlig de som bruker anbefalingsalgoritmer som er direkte manipulerende. Og det er et soleklart eksempel på at det ikke fungerer å legge ansvaret for teknologibruk på individet.»

I et Innlegg på Khrono beskriver Strümke det som er den pågående situasjon. Dette er vårt felles utgangspunkt.

ChatGPT har ettårsjubileum, og fremdeles er det ingen nasjonale føringer for hvordan vi skal tilpasse undervisning og høyere utdanning. Det er helt krise.

Jeg håper at politikerne snart kan være ærlige på at de ikke skjønner AI bedre enn lærerne, og at de egentlig ikke har midler til å hjelpe oss med å regulere bruken. Vi lærere ser faktisk mulighetene, og det er ikke et lystig syn.

Powered by Labrador CMS