Kommentarer overført fra tidligere version af folkeskolen.dk (før 7/3-22)
Marina Norling
(Master i læsning fra Århus Universitet, uddannet læsevejleder og lærer.)
05-06-2014 06:38
Bliver 50 % af opgaverne virkeligt kasserede, eller indgår de bare i nye statistiske analyser indtil de består?
Baggrunden for ovenstående artikel må være, at der er set meget store og tilfældige udsving i eleveresultater ved de nationale test i matematik. For en god ordens skyld burde man måske tilføje links til den aktuelle kritik i artiklen, så nye læsere forstår bagrunden for, at kvalitets og tilsynsstyrelsen pludselig vil ofre en nyudviklet opgave til de nationale test for at retfærdiggøre kvaliteten af matematikopgaverne i de nationale test.
Jeg har skrevet en del om de nationale test, og det, jeg har erfaret, er, at opgaveudviklerne IKKE får tilbagemeldinger på den statistiske analyse. Dvs de skal IKKE godkende den statistiske tildelte sværhedsgrad og de får heller ikke at vide, om konkrete opgaver har bestået eller fejlet i Rasch-analysen, og de får heller ikke at vide, om konkrete opgaver har været ude i flere statistiske afprøvninger for at bestå Rasch-analysen.
I ovennævnte artikel bliver det heller ikke nævnt, at opgaveudviklerne skal godkende opgavernes indbyrdes sværhedsgrad efter den statistiske afprøvning.
Det betyder, at der IKKE er pædagogisk/faglig kontrol med opgavernes sværhedsgrad og indenbyrdes sammenhæng. Opgaveudviklerne er ansat til at respektere, at den statistiske analyse og afprøvning ved Rasch altid holder vand og at der ikke sker utilsigtede udsving i opgavesværhed fx pga opgavens placering i opgavesættet, eller ved en uheldig sammensætning af de ca 700 (eller færre) elever i afprøvningen.
Marina Norling
(Master i læsning fra Århus Universitet, uddannet læsevejleder og lærer.)
05-06-2014 07:10
Lige en rettelse: Jeg er ikke helt sikker på, om forskerne i opgavegruppen slet ikke får at vide, hvilke opgaver, der har bestået den statistiske afprøvning og Rasch-analyse i de nationale test. Det er muligt, at de har fået lov til at se visse beståede opgaver og deres sværhedsgrad.
På et tidspunkt talte jeg med en af de forskere, der har været tilknyttet de nationale test på læseområdet. Forskeren her havde set nogle af de opgaver, der havde bestået den statistiske afprøvning og Rasch-analyse i de nationale test, og denne forsker mente ikke, at der var rimelig sammenhæng i opgavesættet og ville derfor gerne have nogle af de Rasch-godkendte opgaver fjernet.
Men uanset hvilke argumenter forskeren fremførte, så var det ikke muligt at få fjernet opgaver, der var Rasch-godkendte. Forskerens opgave var at respektere de beståede opgaver og i øvrigt komme med gode råd. (Ud over dette, så har alle ansatte ved de nationale test været underlagt strenge regler om tavshedspligt)
Sådan er forskerne opgave beskrevet i kontrakterne omkring de nationale test :
"Opgaverne udarbejdes på baggrund af Designbeskrivelsen og de aftaler, der løbende indgås mellem COWI konsortiet og Skolestyrelsen. Designbeskrivelsen og aftalerne er bindende for de producerende fagfolk. Det gælder også de aspekter, der – set med et forskningsbaseret perspektiv – kan synes uhensigtsmæssige eller uden forskningsmæssigt belæg. Bindingerne gælder imidlertid ikke forskerne, som netop er hyret til at repræsentere forskningen inden for de pågældende fagområder. Det er derfor deres opgave at give forskningsbaserede tilbagemeldinger, også selvom nogle tilbagemeldinger vil kunne tale imod det grundlag, fagfolkene arbejder på. Det er derefter konsortiets fagfolk, der i det videre arbejde inddrager forskernes kommentarer.
På baggrund af ovenstående er der følgende forventninger: at forskerne giver deres tilbagemeldinger ud fra deres faglige viden og indsigt, også selvom denne måtte stride mod forudgående beslutninger om opgaveindholdet, og at de samtidig respekterer, at de producerende fagfolk arbejder i forhold til nogle bindinger, som de ikke er i stand til at ændre på." Designbeskrivelse juli 2010 (kan hentes hos kvalitets og tilsynsstyrelsen)
Marina Norling
(Master i læsning fra Århus Universitet, uddannet læsevejleder og lærer.)
05-06-2014 08:38
nødvendigt med statistiske tilbagemeldinger til opgaveudviklerne
Opgaver bliver skabt med klare forventninger til deres indbyrdes sværhedsgrad. Dette fremgår også af ovenstående artikel:
"De bliver enige om at satse på, at opgaven ligger sværhedsgradsmæssigt i midten, når eleverne får oplyst målene i en blanding af meter og centimeter, mens der kunne blive en god variant af opgaven til de svageste elever, hvor bordet angives til at være 120 centimeter på den ene led og 240 centimeter på den anden."
Hvis nu det viser sig, at opgavenes indbyrdes sværhedsgrad ikke er som forventet, så er det vigtigt for opgaveudviklerne af få nærmere besked om, hvordan opgaverne er afprøvede. Viser det sig, at den lette variant af opgaven havner blandt de aller sværeste opgaver i hele opgavesættet, så er det vigtigt at lede efter fejlkilder i afprøvningsfasen.
Men der findes ingen beskrivelser af, hvordan konkrete opgaver har været afprøvet, så det er ikke muligt at diskutere, om der kan være sket noget uhensigtsmæssigt i afprøvningsfasesen. I ovenstående artikel giver opgaveudviklerne heller ikke udtryk for, at de forventer at diskutere, hvordan den statistiske afprøvning forløb.
Jens Rasch
06-06-2014 10:49
Nye opgaver, målgruppe og hvad er svarmulighederne?
Ny opgave? Undskyld jeg hænger lidt fast i det nævnte eksempel i artiklen. Jeg har for ca. 1 måned siden lavet en lignende opgave med mine 2 3. kasser fra deres Sigmabog. Vi fandt så også figur, omkreds, areal på bordet og hjemme skulle de så lave en lignende om deres "eget" spisebord, samt tegne dette i målestok. Bogens opgave gik kun på at finde antal pladser lige som den beskrevne i artiklen.
Nu står der, at opgaven er tænkt til 6. kl. - testene? Når jeg ser på de opgaver som denne 3. kl. har haft i år kan jeg godt tvivle på om det med "årgangsopdelingen" og Rasch sorteringen duelighed.
De fleste af mine 3. kl. elevener har løst opgaver om rejseplaner (DSB) og sorteret breve efter først at skulle finde ud af, hvad de kostede at sende i porto v.h.a. en "PostDanmarkportotabel"!!!!! Den beskrevne opgave i artiklen er da væsentlig mere "nærværende" for elever i 3. end rejseplaner og porto!
Et andet problem er om den beskreven opgave i artiklen ender i, at eleverne "bare" skal finde et svar eller vælge mellem forskellige mere eller mindre fornuftige måder at finde svaret på?
I vores "måleresultaters tid" har jeg ofte problemer med at forklare både elever og forældre, at mellemregninger i 0. - 3. kl. er mere vigtige end blot resultatet.
Jeg holdte heldigvis en generalprøve, hvor flere af eleverne jo så opdagede, at de sagtens kunne regne resultatet ud, men det var IKKE direkte en af svarmulighederne.
De skulle nu prøve at sammenligne deres "metode" med en af svarmulighederne og fandt den sjældent! Mange af eleverne mente ofte, at den rigtige svarmulighed var: "Da det var den mest underlige/ besværlige/ ulogiske måde at gøre det på". Denne analyse havde de tydeligvis meget bedre tid og flere chancer til at foretage ved "generalprøven", hvor mange af dem skulle op på ca. 35 - 40 opgaver og 60 min. før testen "vidste hvor de lå", mens de fleste til den rigtige test kun fik ca. 20 opgaver og 30 min. til at blive målt på, samt at testen åbenbart husker deres tidligere resultater.
http://www.folkeskolen.dk/540229/nationale-test-klasse-havde-kaempe-udsving-paa-tre-dage
Jeg har skrevet en del om de nationale test, og det, jeg har erfaret, er, at opgaveudviklerne IKKE får tilbagemeldinger på den statistiske analyse. Dvs de skal IKKE godkende den statistiske tildelte sværhedsgrad og de får heller ikke at vide, om konkrete opgaver har bestået eller fejlet i Rasch-analysen, og de får heller ikke at vide, om konkrete opgaver har været ude i flere statistiske afprøvninger for at bestå Rasch-analysen.
I ovennævnte artikel bliver det heller ikke nævnt, at opgaveudviklerne skal godkende opgavernes indbyrdes sværhedsgrad efter den statistiske afprøvning.
Det betyder, at der IKKE er pædagogisk/faglig kontrol med opgavernes sværhedsgrad og indenbyrdes sammenhæng. Opgaveudviklerne er ansat til at respektere, at den statistiske analyse og afprøvning ved Rasch altid holder vand og at der ikke sker utilsigtede udsving i opgavesværhed fx pga opgavens placering i opgavesættet, eller ved en uheldig sammensætning af de ca 700 (eller færre) elever i afprøvningen.