Barbara Wason (venstre) og Cecilie Hansen ved SLATE opplever at lærere ønsker programmer som kan bidra til læring, men det de har til rådighet er ofte bare ment for terping og pugging. Foto: Bedre Skole
Barbara Wason (venstre) og Cecilie Hansen ved SLATE opplever at lærere ønsker programmer som kan bidra til læring, men det de har til rådighet er ofte bare ment for terping og pugging. Foto: Bedre Skole

Lærere ønsker programvare som ennå ikke fins

Norge har kommet langt på personvern, men kort når det gjelder å utvikle lærings-programmer som kan observere og analysere elevenes aktivitet.

Publisert Sist oppdatert

Barbara Wasson er professor og leder ved SLATE (Centre for the Science of Learning & Technology) ved Universitetet i Bergen. Cecilie Hansen er forsker ved den samme institusjonen, og de har sammen vært deltakere i AVT-prosjektet og erfart at dette har bidratt til mye læring.Norge har kommet langt på personvern, men kort når det gjelder å utvikle lærings-programmer som kan observere og analysere elevenes aktivitet og gi utfordringer tilpasset elevens nivå.

Bedre Skole

Denne artikkelen er tidligere publisert i Bedre Skole nr. 1/2020

– Vår oppgave er å forske på læringsanalyse, ikke å utvikle produkter, men vi syntes dette var et interessant prosjekt å gå inn i ettersom vi så at her var det muligheter for mye læring, sier Wasson.

Personvern

Forskerne mener erfaringene med håndtering av data og personvern har vært svært positive. På dette feltet har Norge kommet svært langt, og vil kunne inspirere andre. Men når det gjelder å utvikle adaptive læringsprogrammer, det vil si programvare som kan observere og analysere elevens aktivitet for å tilpasse læremidlene etter nivå, så står det ikke like bra til. Ifølge de to forskerne har Nederlenderne for eksempel kommet mye lengre enn oss på dette feltet.

– Verktøyene lærerne har til rådighet er gjerne laget for læring, men lærerne bruker dem for mengdetrening, øving, terping og pugg, sier Hansen.

Les denne! Læringsanalyse i praksis

En viktig grunn til at vi ikke er kommet lenger på dette feltet er nok at dette er et krevende felt. Wasson bruker et enkelt subtraksjonsstykke som eksempel: 97 - 48 = 49. Å registrere om eleven legger inn rett eller feil svar, er ingen sak. Men et adaptivt læringsprogram må kunne forholde seg til alt som kan gå feil. Eleven kan for eksempel forveksle subtraksjon med addisjon. Det kan hende hun sliter med tieroverganger, osv. I alt er det i et enkelt stykke som dette 60 ulike kompetanser som må til for å kunne identifisere hva eleven gjør, dersom man skal forstå hva som har gått feil.

– Det er ytterst få leverandører som går ned til dette nivået. Men lærerne vi intervjuet sa: Jeg er ikke interessert i rett eller galt svar, jeg vil vite noe om løsningsprosessen. Med andre ord, lærere etterlyser mer komplekse verktøy enn det som fins på markedet, sier Wasson.

Elevdata

En annen utfordring er å få inn tilstrekkelig med data til å kunne danne algoritmer. Man er avhengig av å ha tilstrekkelig mange elever som holder på med programvaren. Men så skal dataene samles inn innenfor en viss periode, og da er det ikke sikkert at det passer med lærerens opplegg at elevene skal holde på med akkurat denne programvaren akkurat da. Dessuten er man avhengig av at eleven bruker programvaren over tid, det holder gjerne ikke med 2–3 dager.

Et annet viktig spørsmål er om dataene man får inn gir et godt nok grunnlag for vurdering av elevens kompetanse. AVT-oppdraget handlet også om å «øke lærernes vurderingskompetanse», og det har vært uklart om man med dette snakker om formativ vurdering eller sluttvurdering.

Sluttvurdering

I sluttrapporten fremgår det at leverandørene av programvare selv er svært skeptiske til å bruke programmene på denne måten, og forskerne ved SLATE skjønner skepsisen.

– Sluttvurdering trenger helt andre verktøy. Hvis vi ser på nasjonale prøver, som er svært grundig testet, så er det testet på et stort antall elever. Det må lages en mengde oppgaver som testes ut og analyseres. Mange av oppgavene vil aldri bli tatt i bruk fordi testene viser at de ikke fungerer. Det sier seg selv at mindre leverandører av programmer ikke vil ha ressurser til å teste ut oppgaver så nøye. Det har dessuten vært vanskelig å få vite hvordan programmene er kvalitetssikret, det er konkurransefaktorer som kommer inn her, og det er helt naturlig, sier Hansen.