Literaturnachweis - Detailanzeige
Autor/inn/en | Koch, Ursula; Hosenfeld, Ingmar |
---|---|
Titel | Wie objektiv werden Leseverstehensaufgaben im Rahmen der Vergleichsarbeiten in der Grundschule ausgewertet? Paralleltitel: An examination of teacher's objectivity in scoring the mandatory proficiency reading tests in primary school. |
Quelle | In: Empirische Pädagogik, 27 (2013) 4, S. 474-496Infoseite zur Zeitschrift |
Beigaben | grafische Darstellungen |
Sprache | deutsch |
Dokumenttyp | gedruckt; Zeitschriftenaufsatz |
ISSN | 0931-5020 |
Schlagwörter | Vergleichsuntersuchung; Auswertung; Lernstandserhebung; Objektivität; Test; Grundschule; Leseverstehen; Aufgabe; Deutschland |
Abstract | Zur Untersuchung der Auswertungsobjektivität von Vergleichsarbeiten wurden Zweit-Beurteilungen von Schülertestheften vorgenommen. Auf der Datengrundlage der Leseverstehensaufgaben der Test-Jahre 2009 bis 2012 (36734 Itembearbeitungen) zeigt sich, dass die Lehrkräfte von den geschulten Kodierern in nur 3,4 % der Fälle abweichen. Die Lehrkräfte bewerten die Schülerantworten etwas besser, der Unterschied zwischen den positiven und negativen Abweichungen beträgt ein Prozent. Schüler mit stärkeren Leseleistungen werden dabei eher bevorzugt, Schüler mit schwächeren Leseleistungen eher benachteiligt. Auf Aufgabenebene führen offene Aufgaben, Aufgaben mit Kurzantworten sowie mit niedriger Textnähe zu einer niedrigeren Objektivität, Multiple Choice-Aufgaben erhöhen sie. (DIPF/Orig.). In order to examine the objectivity of the mandatory tests (Vergleichsarbeiten) student answers of the reading tests from 2009 to 2012 (36734 item answers) were scored a second time by trained coders. Compared to these scores teacher's scores differed only in 3.4% of the cases with slightly more positive than negative deviations (mean difference: one percent). These deviations are not equally distributed across students but are correlated with students reading performance, favoring stronger readers and disadvantaging weaker readers. Tasks with in open or short answer format and tasks requiring a global understanding of the text lead to low objectivity whereas multiple choice items raise it. (DIPF/Orig.). |
Erfasst von | DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation, Frankfurt am Main |
Update | 2014/3 |