Å tilpasse eksamen for streikerammede elever trenger ikke å være så vanskelig
Debatt: La faglæreren identifisere områder i læreplanen som ikke har blitt dekket på grunn av bortfall av undervisning.
28. september uttalte kunnskapsminister Tonje Brenna at eksamen skal gå som normalt dette skoleåret. I etterkant publiserte Utdanningsnytt.no en sak hvor rektorer og fylkesdirektører etterlyste en tilpasset variant av eksamen for elevene som ble hardest rammet av lærerstreiken. En tilpasset eksamen vil ha til hensikt å gjøre det mer rettferdig for elevene som ble rammet av streiken. Men hvordan skal en slik eksamen se ut?
La meg aller først få understreke at jeg av flere grunner synes det er viktig å gjennomføre eksamen. En av dem er at uten eksamen mangler vi en ekstern vurdering av elevene, et viktig tiltak for å redusere karakterinflasjonen man har sett de siste ti årene[i]. Vi har også fått en ny læreplan siden eksamen sist ble gjennomført normalt, noe som ytterligere styrker behovet for å gjennomføre eksamen som normalt. I tillegg er det verdt å påpeke at elevene som går ut av videregående i år har vært igjennom to år uten eksamener. Spesielt elever på studieforberedende programmer bør få erfaring med eksamenssituasjoner før de begynner i utdanningsprogrammer på høyere nivå.
Forslag til løsning
En tilnærming som kan være relativt enkel å gjennomføre, er å la faglæreren identifisere områder i læreplanen som ikke har blitt dekket på grunn av bortfall av undervisning. Når karakteren så skal settes, tar man ikke med oppgavene tilknyttet disse temaene i beregningen. Antall oppgaver som man bestemmer at ikke skal telle, kan for eksempel være proporsjonalt med andel undervisning som har bortfalt.
Les også: Gode elevresultater etter pandemien skyldes ikke kun manglende eksamen
Dette høres kanskje ut som en tilnærming som er lett å manipulere, men det vil være avhengig av hvordan man teknisk beregner karakteren. Den vanlige tilnærmingen for å sette karakter på en prøve er å telle opp antall riktige/poeng. For hver karakter er det definert et poeng-intervall, og man setter karakter basert på hvilket intervall den oppnådde poengsummen faller i. For en prøvesituasjon hvor alle elevene får de samme oppgavene, er en slik tilnærming tilstrekkelig.
Denne tilnærmingen er derimot ikke god nok hvis elever får forskjellige oppgaver. Det vil ikke holde med den vanlige fremgangsmåten for å sette karakter, siden en slik fremgangsmåte kan manipuleres med relativt enkle grep. Man kan for eksempel fjerne de vanskeligste oppgavene, noe som vil øke andelen riktige svar en elev vil oppnå. Et mulig tiltak for å unngå et slikt problem er å innføre begrensninger på hvilke oppgaver som tas bort fra vurderingsgrunnlaget, men dette vil fort bli svært krevende å få til i praksis, og uansett være en halvveis-løsning.
En enklere tilnærming vil være å bruke såkalt Item Respons Theory (IRT)[ii]. Dette er den samme type statistisk tilnærming som brukes for å finne poengsummen til en elev i de nasjonale prøvene[iii], og som gjør det mulig å sammenligne resultatene fra år til år[iv]. Kort fortalt er IRT en statistisk tilnærming hvor hver oppgave blir beskrevet med en gruppe parametere. Den enkleste formen for IRT-modell (one-parameter logistic model - 1PL) inkluderer kun en parameter for hvor vanskelig en oppgave er. Den typen IRT-modell som benyttes i de nasjonale prøvene (2PL), inkluderer også en parameter for hvor godt en oppgave skiller mellom elever på forskjellige ferdighetsnivåer.
En av styrkene til denne tilnærmingen er at det går an å plassere elever som tar forskjellige prøver på en felles skala, uten at prøvene trenger å være like vanskelige. Dette er mulig så lenge det er et overlapp av oppgaver mellom prøvene. I løsningen skissert over vil de fleste oppgavene fortsatt bli besvart av de fleste elevene, noe som gjør en IRT-tilnærmingen både mulig og robust. Både fagmiljøene i universitets- og høyskolesektoren og UDIR har den nødvendige kompetansen til å gjennomføre denne typen analyse.
Utfordringer med en IRT-tilnærming
En IRT-tilnærming vil ikke være uten utfordringer. For det første vil det være en logistisk utfordring ved at data fra eksamen må samles inn på en systematisk måte på oppgavenivå. For det andre vil måten karakteren beregnes på være relativt kompleks og lite transparent, noe som kan oppfattes som urettferdig. For det tredje bør det være klare forhåndsdefinerte retningslinjer både hvordan for hvordan oppgaver skal bli valgt bort og for hvordan IRT-analysene skal gjennomføres. Det kan hende at slike retningslinjer er basert på antakelser som det viser seg at ikke blir oppfylt.
Til tross for disse utfordringene, vil dette være en relativt enkel tilnærming. I tillegg til at denne tilnærming ikke krever utvikling av ekstra prøvemateriale, vil man også åpne for lokal fleksibilitet.
Referanser
[i] https://www.udir.no/tall-og-forskning/statistikk/statistikk-grunnskole/analyser/karakterer-i-grunnskole/
[ii] https://en.wikipedia.org/wiki/Item_response_theory
[iii] UDIR (2018): Metodegrunnlag for nasjonale prøver - https://www.udir.no/globalassets/filer/vurdering/nasjonaleprover/metodegrunnlag-for-nasjonale-prover-august-2018.pdf
[iv] Björnsson, Julius K. (2018): Om lenkefeil og ekvivaleringsmetoder på nasjonale prøver: Evaluering av endring over tid. Acta Didactica Norge, 12(4), Art. 16 - https://journals.uio.no/adno/article/view/6273