Qualitätssicherung in der Bildung

20.4.2015 | Von:
Ewald Terhart

Wie geht es weiter mit der Qualitätssicherung im Bildungssystem – 15 Jahre nach PISA? – Essay

Large Scale versus Small Scale

Neben diesen Erklärungsproblemen, die die Large-scale-Forschung schon immer begleiten, wird vor allem auf der unteren Ebene der Bildungsadministration, von den Lehrerverbänden und Sprecher(inne)n pädagogischer Berufe der konkrete Gebrauchswert der auf der Large-scale-Ebene gewonnenen Ergebnisse bezweifelt. Was geben sie her für die in den Klassen- und Lehrerzimmern, in den Büros von Schulleitern und Schulverwaltungsbeamten anstehenden Entscheidungen? Sofern sich diese Vorwürfe speziell gegen large scale richten, sind sie nicht berechtigt, denn aus alle drei Jahre erfolgenden Momentaufnahmen zum Leistungsstand kann man zwingend weder Ursachen noch konkrete Maßnahmen ableiten; dies ist jedem Kenner der Materie schon immer klar gewesen und vielfach ausformuliert worden. Bei flächendeckenden Lernstandserhebungen sowie bei Schulinspektionen sieht das jedoch schon anders aus, handelt es sich hier doch um Monitoring- und Qualitätsermittlungsverfahren, die nicht auf Stichproben, sondern Vollerhebungen basieren und die unmittelbare Arbeitsebene in den Institutionen erreichen.

Und genau hier, an der Kontaktstelle zwischen Bildungsmonitoring und pädagogischer Praxis selbst, also dort, "where the rubber meets the road", wie es ein amerikanischer Bildungssoziologe plakativ formulierte,[2] wird über den Erfolg, Teilerfolg oder Misserfolg von Qualitätssicherung entschieden: Wenn nämlich aus den Daten und Erkenntnissen über den Zustand oder Erfolg einer Maßnahme, einer Institution, einer Schulklasse, eines Unterrichts entweder die richtigen, die falschen oder gar keine Konsequenzen gezogen werden beziehungsweise gezogen werden können.

Dieses Problem soll am Beispiel der flächendeckenden Lernstandserhebungen verdeutlicht werden: Sie werden mittlerweile seit mehr als acht Jahren praktiziert, parallel wurde eine Reihe von empirischen Studien über den Umgang der Schulen und Lehrerkollegien mit an sie zurückgemeldeten Daten durchgeführt. Die Ergebnisse sind sehr ernüchternd: Nur unter besonders günstigen äußeren Bedingungen der Schule und einer positiven Haltung von Lehrkräften zu solchen Qualitätssicherungsmaßnahmen lässt sich erkennen, dass Qualitätsdiagnose auch in Qualitätsverbesserung auf Alltagsebene übergeht. Diese idealen Bedingungen existieren jedoch zu selten. Umgekehrt muss eben auch gesehen werden, dass im schlechten Fall die Dinge gar nicht adäquat zurückgemeldet werden, bei den Akteuren nicht ankommen oder – falls doch – dort als Kontrolle von Außen und Oben sowie als Einengung der individuellen beruflichen Handlungsautonomie wahrgenommen werden. Wissenschaftliche Evidenz wird als ungeeignete und unpassende Basis für eigenes berufliches Handeln betrachtet; evident ist dann nur das, was man selbst in seiner Schule, seiner Klasse erlebt hat und täglich erlebt. Wie überall bei Prozessen organisierten Wandels muss mit "Implementationsuntreue", das heißt mit Indifferenz, Scheinerfüllung, passivem und aktivem Widerstand oder Obstruktion (beispielsweise durch lächerlich machen oder Verachtung gegenüber der gutwilligen Reform-Fraktion im Lehrerzimmer) gerechnet werden. Datengetriebene Unterrichtsentwicklung mag im bildungswissenschaftlichen Forschungsinstitut oder in einer landeseigenen Qualitätsentwicklunsgsagentur in sich stimmig und überzeugend sein; von der gewöhnlichen XYZ- und 08/15-Schule wird sie (zu) häufig als eine Fremdbestimmung erlebt, vor der man sich wegduckt und allenfalls formal Vollzug nach oben meldet.[3]

Das sind alles keine Argumente gegen Qualitätssicherung oder gegen empirische Bildungsforschung oder gar generell gegen die seit 15 Jahren betriebene neue Form der an Standards orientierten Bildungsentwicklung. Die "seit PISA" bestehende Fundamentalkritik an allen tatsächlichen Problemen oder vermeintlich negativen Folgen von PISA ist übrigens auch keineswegs so durchschlagend, dass, wie von Andreas Gruschka nahegelegt wird, die empirische Bildungsforschung bereits am "Ausgang ihrer Epoche" steht.[4] Empirische Forschung zu solchen Lernstandserhebungen hat schließlich selbst darauf aufmerksam gemacht, dass der entscheidende Kontaktschluss eben vielfach nicht stattfindet, das Qualitätssicherungssystem mithin bislang seinen Gegenstandsbereich nicht so erreicht, wie man sich das wünschen würde. Das bedeutet erstens: Sehr viel stärker als bisher sollte untersucht werden, wie Qualitätssicherungsimpulse in die Qualität verbessernden Maßnahmen und Prozessen überführt werden können. Zweitens liegt darin auch die Aufforderung an die Schulpolitik, solche Techniken dann in den Schulen auch tatsächlich zu verbreiten: Das Ganze auf die reformresistenten Lehrkräfte zu schieben, ist zu einfach und gleitet in die übliche Lehrerschelte ab; die Verantwortlichen müssen eben auch die Bedingungen schaffen, damit nicht nur die schon immer Reformengagierten, sondern auch die zögerlichen Lehrkräfte einsteigen.[5]

Was leistet Bildungsmonitoring und was nicht?

Die Idee eines breit angelegten, empirisch fundierten Bildungsmonitorings sowie das Konzept einer Bildungspolitik und -administration, die hieraus Konsequenzen ziehen, um damit eine Verbesserung der Bildungsqualität zu erreichen, war und ist also weiterhin im Prinzip die richtige Idee beziehungsweise Strategie. Allerdings müssen sich alle Beteiligten bei der Rückschau und bei der Vorausschau vor Augen halten, dass die Dinge sich sehr viel langsamer, sehr viel undurchsichtiger und manchmal auch paradoxer entwickeln, als man sich dies in der idealen, rechtwinkligen Welt von Innovationsmodellen vorgestellt hat. Außerdem bedürfen Maßnahmen der ständigen Begleitung und Nachsteuerung, da sie sich eben in einem sich ständig verändernden Umfeld bewegen und dieses ebenfalls verändern.

Vor allem diejenigen Angriffe auf Qualitätssicherung und Bildungsforschung gehen ins Leere, die die Unterschiedlichkeit der Wissensformen nicht berücksichtigen: Bildungsmonitoring liefert Diagnosewissen; vertiefende Analysen liefern Erklärungswissen; Ergänzungsstudien sind darauf gerichtet, Handlungswissen bereitzustellen. Man kann nicht gleichzeitig alles von jeder Art von Forschung erwarten. Darüber hinaus gilt weiterhin die schon recht betagte Erkenntnis, dass es kein Rationalitätskontinuum zwischen Wissenschaft und Praxis, zwischen Erkenntnis und Gestaltung, zwischen Denken und Tun gibt. Der Öffentlichkeit, den Eltern, den Politikern, den Lehrkräften ist eben vielfach anderes "evident" als dem Bildungsforscher. Oder anders gesagt: Im Übergang vom Diagnose- zum Erklärungs- zum Handlungswissen werden die Dinge immer schwieriger, komplexer und riskanter. Denn es liegt in der Natur der Sache, dass sich bei zunehmender Annäherung an die Handlungsebene der Akteure und an den Vollzug der pädagogischen Praxis situative und personale, durch Wissen und seine Vermittlung allein nur schwer zu beeinflussende Eigenstrukturen und Überempfindlichkeiten der Personen auswirken. Dies muss als unhintergehbare, also nie außer Kraft zu setzende situative Bedingung akzeptiert werden. Wie in allen sozialen und gesellschaftlichen Feldern, so gibt es auch im Bildungsbereich sowohl Grenzen der Erkennbarkeit als auch Grenzen der Gestaltbarkeit der Dinge.

Insofern ist ein naiver Glaube an die automatische Wirksamkeit von Qualitätsmonitoring im Bildungssystem genauso falsch wie die spiegelbildliche, ebenso naive Überzeugung, dass seit PISA das Bildungssystem, das schulische Lernen und im gleichen Zuge auch der Lehrerberuf durch neoliberale Bildungsmarktfetischisten und ihre Helfershelfer in den Bildungsforschungsinstituten systematisch zerstört wurden. Sowohl bei der Rückschau auf die Entwicklung der vergangenen 15 Jahre als auch bei dem Versuch eines Ausblicks auf die Zukunft stellt sich ein Problem ein: Was bedeutet eigentlich Erfolg bei kurz- und langfristiger Schul- und Bildungsentwicklung? Welche auslösenden Faktoren (Ursachen, Initiativen, Programme) kann man für einen womöglich behaupteten Erfolg oder kritisierten Misserfolg als auslösend oder verantwortlich erklären? Rekonstruktionen zur Vergangenheit sind immer riskant, selektiv und interessengeleitet, und was dem einen als Erfolg erscheint, geht für den anderen am eigentlichen Zweck vorbei und ist also bedeutungslos – ja vielleicht sogar ein Misserfolg. Erfolgs- oder Versagensfeststellungen sowie zugeordnete Ursachenanalysen und Zukunftsprojektionen sind sehr positionsabhängig; sie können nur innerhalb einer bestimmten Position konsistent entwickelt werden. Das bedeutet: Rückschauende, gegenwartsbezogene und zukunftsorientierte Aussagen zu Situation, Qualität, zum Schicksal und den Perspektiven des Bildungssystems werden immer kontrovers bleiben; neben Mehrheitsmeinungen wird es an den Rändern immer mehr oder weniger starke Differenzen geben.[6] Dahinter steht die Erfahrung, dass Bildung und Erziehung schon immer Projektionsflächen und Möglichkeitsräume für imaginierte Hoffnungen, Befürchtungen, Utopien und Schreckensbilder waren. Nach dem Zerfall heilsversprechender religiöser und politischer Deutungs- und Erlösungssysteme ist die Überhöhung von Bildung, die uns allein (auch ökonomisch) noch retten kann, sogar noch größer geworden (man denke an Schlagwörter wie "Wissensgesellschaft", "knowledge economy" oder "Bildungsrepublik"). Insofern stellen das imaginäre, aber eben auch das reale Bildungssystem eine öffentlich dauererörterte Vielzweckinstitution dar, an die sich sehr unterschiedliche Hoffnungen, Ängste und Erwartungen knüpfen, und deren Bewertung dann eben kontinuierlich strittig ist. Es wird immer so sein.

Fußnoten

2.
John B. Diamond, Where the Rubber Meets the Road: Rethinking the Connection between High-Stakes Testing Policy and Classroom Instruction, in: Sociology of Education, 80 (2008) 1, S. 285–313.
3.
Hierzu existiert eine sehr breite empirische Literaturbasis. Vgl. beispielsweise Michael Zimmer-Müller/Ingmar Hosenfeld (Hrsg.), Zehn Jahre Vergleichsarbeiten: Eine Zwischenbilanz aus verschiedenen Perspektiven, Empirische Pädagogik, 27 (2013) 4 sowie die dort verarbeitete Literatur. Insgesamt regiert in den empirischen Arbeiten ein sehr skeptischer Ton; es gibt Indizien, dass das Wissen über und die Akzeptanz solcher Verfahren in der Lehrerschaft eher abnimmt. Zur schulischen Personalentwicklung scheinen die Verfahren nichts, zur Unterrichtsentwicklung in der Fläche nur sehr wenig und nur unter äußerst günstigen Bedingungen beizutragen (z.B. entsprechend positive Haltung der Lehrkräfte zu solchen Verfahren, Fähigkeit zur Verarbeitung der erhaltenen Informationen, starke Unterstützung seitens der Schulleitung).
4.
Vgl. Andreas Gruschka, "Empirische Bildungsforschung" am Ausgang ihrer Epoche?, in: PROFIL, (2013) 6, S. 1–6.
5.
Vgl. Ewald Terhart, Widerstand von Lehrkräften in Prozessen der Schul- und Unterrichtsreform: Zwischen Kooperation und Obstruktion, in: derselbe, Erziehungswissenschaft und Lehrerbildung, Münster 2013, S. 113–132.
6.
Über Wirkungsannahmen in Konzepten der Qualitätsverbesserung und Erfolg und/oder Scheitern von Schulreformen vgl. Ewald Terhart, Wirkungsannahmen in Konzepten der Qualitätsverbesserung des Bildungssystems: Hoffen, Bangen, Trauern, in: Detlef Fickermann/Norbert Maritzen (Hrsg.), Grundlagen für eine datengestützte Schulentwicklung. Konzeption und Anspruch des Hamburger Instituts für Bildungsmonitoring und Qualitätsentwicklung, Münster 2014, S. 183–199.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Ewald Terhart für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.