1 Weiterbildung im Rahmen der Gesamtstrategie evidenzbasierter Bildungspolitik
Bildungsberichte bilden einen Gegenstand einer umfassenderen Diskussion, die unter dem Schlagwort der „empirischen Wende“ (Lange 2008) geführt wird. Anders als frühere Wenden erziehungswissenschaftlicher Forschung zur Empirie – prominent vor allem die „realistische Wendung“ (Roth 1962) – geht die jüngste nicht aus einer innerdisziplinären Entwicklung hervor, sondern markiert einen veränderten Anspruch an politische Entscheidungen vor dem Hintergrund fortgeschrittener empirischer Forschung. So bezieht Lange – selbst politischer Beamter – die Feststellung einer empirischen Wende auf die Bildungspolitik. Angesichts anwachsender Befundlagen empirischer Forschung über Bildung und das Bildungssystem scheine „die Orientierung von Entscheidungen in Schulpolitik und pädagogischer Praxis an sozialwissenschaftlich gesicherten Untersuchungsbefunden und nicht nur an ungesicherten Einschätzungen und unkritisch verallgemeinerten punktuellen Beobachtungen […] vollzogen“ (Lange 2008, S. 7). Diese Feststellungen gelten der Schulpolitik, dem Schulsystem und der diesbezüglichen empirischen Forschung. Dort wurde die empirische Wende in der Ausgestaltung des staatlichen Auftrags zur Sicherung der Qualität von Schulen (nach Art. 7 GG) auf den Weg gebracht.
Die Akteure „in Schulpolitik und pädagogischer Praxis“ sind in ein System eingebunden, das qua Föderalismus zwar multizentrisch, aber in recht klaren hierarchischen Strukturen und organisatorischen Zuständigkeiten arbeitet. Sie umfassen im Wesentlichen die für Schulangelegenheiten zuständigen Ministerien der Bundesländer, die ihnen unterstellten Schuladministrationen und Aufsichtsbehörden, die Kommunen als hauptsächliche Trägerinnen allgemeinbildender Schulen und Instanzen der Schulaufsicht sowie die in der Gestaltung pädagogischer Angelegenheiten eigenständigen Schulen und schließlich die dort tätigen Professionellen. Sie konstituieren zudem ein Feld, das qua allgemeiner Schulpflicht und nach Jahrgängen organisierter Beteiligung an einem curricular strukturierten Bildungsprogramm mit dem Ziel des Erwerbs formaler Bildungsabschlüsse geradezu ideale Voraussetzungen für ein empirisches Monitoring bietet. Hier soll nicht diskutiert werden, inwiefern die mit der empirischen Wende verbundenen Steuerungserwartungen sich erfüllt haben; vielmehr geht es um den Hinweis auf eine organisatorische und institutionelle Konstellation, die wechselseitige Referenz von empirischer Forschung, Bildungspolitik und Praxis auf allen Ebenen des skizzierten Systems zum Nutzen aller Beteiligten eröffnet. Für die Weiterbildung ist ein vergleichbares System, in dem Akteurinnen und Akteure sowie Adressatinnen und Adressaten der Berichterstattung identifiziert werden könnten, nicht entwickelt oder zumindest sehr viel weniger elaboriert.
Konzeptionell gerahmt ist die Idee einer evidenzbasierten, also durch empirische Forschungsbefunde informierten Bildungspolitik und -praxis (vgl. Bromme & Prenzel 2014) von der „Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring“ (KMK 2016). Sie zielt – entsprechend dem Auftrag der KMK – auf eine Koordination zwischen den Ländern in Fragen der Qualitätssicherung ab und definiert gemeinsame Vorhaben. Der vertikal gegliederte Aufbau des Schulsystems wird dabei in einem Gefüge wissenschaftlich basierter Monitoringstudien abgebildet, mit denen Schulleistungsvergleiche auf den gestaffelten Ebenen des Systems erfolgen: von den internationalen Vergleichen (beispielsweise PISA) über die an Bildungsstandards orientierten Vergleiche der Bundesländer (beispielsweise IQB-Bildungstrends) bis zu den Vergleichsarbeiten zur Qualitätssicherung auf Ebene der Schulen. Ein eigenständiges Element der Strategie sind Bildungsberichte, für die – ebenso wie für die internationalen Leistungsvergleiche – die Länder und der Bund nach Art. 91b GG im Rahmen sogenannter Gemeinschaftsaufgaben verantwortlich sind. Seit 2006 erscheint in dieser Verantwortung in zweijährigem Turnus der nationale Bildungsbericht (jüngst Autor*innengruppe Bildungsberichterstattung 2022). Er bietet in einem auf Trendentwicklungen im Bildungssystem und aktuelle Themen ausgerichteten Indikatorenkonzept in erster Linie empirische Beschreibungen, zeigt aber auch vertiefende analytische Befunde aus der Bildungsforschung auf. Gemäß der „Leitidee ‚Bildung im Lebenslauf‘“ (KMK 2016, S. 14) thematisieren die nationalen Bildungsberichte „Weiterbildung“ in eigenen Kapiteln. Sie enthalten verdichtete Informationen zum Angebot und zur Teilnahme, zur Qualität der Weiterbildung und ihren Erträgen. Dabei wird auf Datenquellen zurückgegriffen, die bislang nicht integriert sind und – anders als die vertikal gestaffelten schulischen Berichtskonzepte – kaum zueinander in Bezug gesetzt werden können.
Die Institutionalisierung der Weiterbildung erfolgt nicht – wie im Schulwesen – unter einer Zusammenhang stiftenden staatlichen Aufsicht, sondern unter Orientierung an der Pluralität von Trägern, der Subsidiarität staatlicher gegenüber zivilgesellschaftlichen Initiativen und der Freiwilligkeit der Teilnahme. Entsprechend entwickelt sich die Weiterbildung nicht als System, an dessen Struktur die Berichterstattung angekoppelt werden könnte, sondern ist vielmehr Teil mehrerer Systeme, die u. a. bildungs-, wirtschafts-, sozial-, arbeitsmarkt- und kulturpolitische Funktionen haben. Dementsprechend tragen mehrere Ressorts die politischen Zuständigkeiten, die quer dazu zwischen Bund und Ländern differenziert sind. Zudem hat die eher anlassbezogen als regelhaft erfolgende Teilnahme an Weiterbildung eine gewisse Volatilität der Organisation von Weiterbildung zur Folge, die ein Monitoring erschwert.
Die Referenzen zwischen Bildungspolitik und Bildungsforschung haben 2020 mit der Einrichtung einer Ständigen Wissenschaftlichen Kommission der Kultusministerkonferenz (SWK) einen weiteren institutionellen Schub erfahren. Damit wurde nicht nur eine Tradition wissenschaftlicher Gremien der Politikberatung wieder aufgenommen, die mit dem Deutschen Ausschuss für das Erziehungs- und Bildungswesen im Jahr 1953 begann und mit der Auflösung des Deutschen Bildungsrates 1975 einen vorläufigen Abschluss fand, es wurde auch das legitimationsstiftende Prinzip der Beratung vollends von Eminenz auf Evidenz gestellt. Legitimierte sich der Deutsche Ausschuss vornehmlich über den Honoratiorenstatus seiner Mitglieder und der Deutsche Bildungsrat über bildungsplanerische Expertise, so erfolgt die Beratung der SWK „auf Basis der zum jeweiligen Zeitpunkt vorliegenden wissenschaftlichen Evidenz. Grundlage der Empfehlungen bilden Erkenntnisse des Bildungsmonitorings, der Bildungsberichterstattung und der Forschung“.1 Aus Sicht der Wissenschaft gehört es zu den Imponderabilien der Bildungspolitik, dass es nicht gelungen ist, das Gremium – wie ursprünglich vorgesehen und bei den beiden Vorläufern der Fall – in der Gemeinschaft von Bund und Ländern zu begründen. Das hätte beispielsweise die Chance geboten, bundesfinanzierte Programme der Bildungsforschung institutionell stärker an die Beratung der auf Länderebene verantworteten Bildungspolitik zu koppeln. Parallelen zur Gemeinschaftsaufgabe bleiben aber erkennbar, denn auch die Kommission nimmt eine „systemische Perspektive entlang der Bildungsbiografie ein“.2
Gleichwohl tritt Weiterbildung in der Arbeit der SWK bislang nur als mittelbares Thema in Erscheinung, sofern es um die Qualifizierung pädagogischen Personals an Schulen geht. Darin kommt kein Desinteresse oder gar Ignoranz zum Ausdruck, sondern der Umstand, dass im Zuständigkeitsbereich der KMK und der in ihr organisierten Länder mit der allgemeinen Weiterbildung nur ein Ausschnitt aus der Gesamtheit institutionalisierter Weiterbildung mitverantwortet wird. Auf Bundesebene verantwortete Initiativen der Weiterbildung – zu nennen ist insbesondere die von den Bundesministerien für Arbeit und Soziales (BMAS) sowie Bildung und Forschung (BMBF) koordinierte Nationale Weiterbildungsstrategie (BMAS & BMBF 2019) – liegen nicht im Fokus der SWK. Im Rahmen einer Gemeinschaftsaufgabe von Bund und Ländern wären die Voraussetzungen, sich auch mit Weiterbildung zu beschäftigen, vermutlich günstiger.
2 Weiterbildungsberichterstattung – Konstitution eines Systems durch Bearbeitung von Intransparenz
Die institutionellen Anknüpfungspunkte der Weiterbildungsberichterstattung sind – so lässt sich die obige Skizze zusammenfassen – sehr viel weniger gebündelt als das in der Berichterstattung über Schulen der Fall ist. Entsprechend ist die Einbettung in eine Gesamtstrategie nicht entwickelt und Rezipierende der Berichterstattung werden kaum gezielt adressiert. Dass eine indikatorenbasierte Berichterstattung über die Weiterbildung dennoch zeitlich weiter zurückreicht als die über die Schule, steht dazu keineswegs im Widerspruch. Gerade die Unübersichtlichkeit der Weiterbildung war Anlass für das damalige Bundesministerium für Bildung und Wissenschaft (BMBW) im Jahr 1979 das Berichtssystem Weiterbildung (BSW) in Auftrag zu geben. Aus der Vogelperspektive einer für die Wohnbevölkerung Deutschlands im Alter von 18 bis 65 repräsentativen Statistik der Bildungsbeteiligung wird konstituiert, was in institutioneller Hinsicht weder politisch beabsichtigt noch historisch emergiert ist – ein „Gesamtsystem der Weiterbildung“ (Rosenbladt 2010, S. 34). Als solches ist es Produkt eines kontinuierlichen Monitorings, das mit dem BSW bis 2010 im dreijährigen Rhythmus und mit der Integration in den europäischen Adult Education Survey (AES) ab 2010 für Deutschland alle zwei bis drei Jahre erfolgt. Das Konzept erweist sich als erweiterungsfähig beispielsweise mit Blick auf die Einbeziehung der Erwachsenenbevölkerung im Nacherwerbsalter, die seit 2016 immerhin bis zum Alter von 69 Jahren erfasst wird.
Wirkung entfalten das BSW und der AES hauptsächlich in zwei Richtungen. Eine Richtung markiert die Aggregation der Beobachtung einer Vielzahl individueller Weiterbildungsaktivitäten zu abstrakten Kennwerten. Sie fassen Trendentwicklungen zusammen und gewinnen dadurch im politischen und öffentlichen Diskurs Informationswert. Im politischen Kontext prominent ist insbesondere die Weiterbildungsquote, die angibt, wie hoch der Anteil der Erwachsenen ist, die im Laufe eines Jahres mindestens eine Weiterbildungsveranstaltung besucht haben. Die Entwicklung dieses Kennwertes, die in Deutschland mit Ausnahme leichter Einbrüche (beispielsweise 1985) und positiver Ausreißer (beispielsweise 1997) stetig positiv verläuft (vgl. Bilger & Strauß 2021), lässt sich nicht mit einer bestimmten Weiterbildungspolitik in Verbindung bringen. Vielmehr hat der Wert den Status eines auf Bildung bezogenen Konjunkturindikators, der (ähnlich wie das Bruttosozialprodukt für die wirtschaftlichen Aktivitäten eines Landes) eine Lage gesamthaft beschreibt, aber nicht die Leistungen einzelner politischer oder institutioneller Akteure sichtbar macht. In eine andere Richtung weisen die in den Monitoringsystemen erbrachten Differenzierungen. Die kategoriale Unterscheidung allgemeiner und beruflicher Weiterbildung im BSW, die Identifikation der Segmente betrieblicher, individuell-berufsbezogener und nicht berufsbezogener Weiterbildung, die Umstellung der AES-Berichtssystematik auf die Unterscheidung formaler und non-formaler Weiterbildung sowie informellen Lernens markieren die Systematisierungsleistungen, die im Rahmen der Berichterstattung begrifflich und daran anschließend in der statistischen Erfassung des Gegenstandes erbracht wurden. Aktivitäten in Teilbereichen der Weiterbildung werden so schärfer darstellbar und entsprechend aufgelöste Kennwerte gewinnen prinzipiell höheren Informationswert für die jeweiligen Träger institutioneller und politischer Verantwortung.
Die Aggregation statistischer Informationen einerseits und ihre konzeptionelle Differenzierung andererseits sind nicht voneinander entkoppelt – auch wenn sie zunächst in gegenläufige Richtungen weisen. Sie stehen in einer Interaktion, in der die Weiterbildungsberichte – und insbesondere der AES – eine wichtige Katalysatorfunktion erfüllen. Es geht in der Logik der Aggregation darum, mit einzelnen Kennwerten aussagekräftige und praktisch belangvolle Diagnosen zum Zustand institutionalisierter Weiterbildung zu erstellen. Das darin liegende Problem der statistischen Deskription ist theoretisch anspruchsvoll, wie ja auch die Kritik an Bildungsberichten (etwa Faulstich & Zeuner 2015, S. 33) anmahnt. Es verlangt nach einer begrifflich und operational trennscharfen Identifikation von Kriteriumsvariablen, die etwas über die Leistung von Institutionen der Weiterbildung aussagen und die sensibel für kontextuelle Veränderungen sind. Die Frage nach den Auswirkungen der Coronapandemie auf die Weiterbildungsbeteiligung in unterschiedlichen institutionellen Settings bietet ein Beispiel, in dem diese Ansprüche verknüpft sind. Die wissenschaftliche Bearbeitung derartiger Probleme steckt – obgleich sie nicht neu sind – noch weitgehend in den Kinderschuhen. Das ließe sich etwa daran diskutieren, dass der theoretische Status der Weiterbildungsbeteiligung – eine der zentralen Variablen der Berichterstattung – als abhängige und/oder unabhängige Variable im Bildungsprozess Erwachsener kaum geklärt ist. Ebenso offen – aber für die (politische) Bewertung der Weiterbildung relevant – ist, ob und mit welchen Erträgen Anforderungen des Erwachsenenalters auch mit funktionalen Äquivalenten zur Weiterbildung begegnet wird (vgl. Tenorth 2015).
Aussichtsreiche Perspektiven der Entwicklung von Monitorings ergeben sich durch eine theoriegeleitete Differenzierung, in der beispielsweise institutionelle Kontexte der Weiterbildung systematisch unterschieden und die Variation der Ausprägung von Kriteriumsvariablen zwischen den Kontexten betrachtet wird. Ein entsprechendes Konzept liegt mit der Abgrenzung von Reproduktionskontexten der Weiterbildung vor, in dem der institutionellen Heterogenität der Planung, Finanzierung, Organisation und Professionalisierung von Weiterbildung ebenso Rechnung getragen wird, wie den variierenden Bedingungen der Teilnahme (vgl. Schrader 2011, S. 116 ff.). Der Eingang dieses Konzeptes in die nationale Berichterstattung über Weiterbildung (vgl. Autor*innengruppe Bildungsberichterstattung 2022, S. 224 ff.) bietet wertvolle Anknüpfungspunkte für die weitere theoretische Flankierung von Weiterbildungsberichten und für die Erhöhung der politischen bzw. praktischen Relevanz der Berichte durch die Identifikation von Kriteriumsvariablen, die Folgen praktischer bzw. politischer Interventionen aufzeigen.
Eine wichtige Funktion des nationalen Bildungsberichts, die hier nur angedeutet werden kann, ist die Rezeption weiterer Berichte über Weiterbildung. Die Prominenz des AES kann nicht darüber hinwegtäuschen, dass mit ihm nur eine Perspektive auf die Weiterbildung eröffnet wird – nämlich die der erwachsenen Bevölkerung, an die Weiterbildungsangebote adressiert sind. Ein vollständiges Berichtskonzept erfordert weitere Indikatoren, die sich zumindest auch auf Angebote und Professionalisierung der Weiterbildung beziehen und diese in ihren Kontexten datenbasiert thematisierbar machen. Die Berichterstattung über Weiterbildung ist gekennzeichnet von einer Versäulung der Monitorings, die Informationen über Teilnahme, Angebote und Professionalisierung bieten (zum Überblick vgl. Kuper et al. 2016). Statistiken über die Weiterbildungsangebote von Betrieben und die Angebote öffentlicher sowie verbandlicher Träger liegen vor, sind aber konzeptionell und operativ separiert voneinander. Auch die Perspektive des Personals in der Weiterbildung ist Gegenstand eigenständiger Berichtskonzepte. Dabei variieren die Ansätze der Berichte erheblich. Das liegt auch daran, dass sie teils primär zum Zwecke der Verwaltung erhoben werden, wie beispielsweise die Volkshochschulstatistik, teils zu wissenschaftlichen Zwecken, wie das IAB-Betriebspanel oder die National Educational Panel Study (NEPS). Eine quer zu den Säulen liegende Integration zentraler Berichtskonzepte ist ein wichtiges strategisches Ziel der Weiterbildungsberichterstattung. Es begründet sich aus der Erwartung, komplexere Relationen abbilden zu können, die in einem Prozess-Produkt-Paradigma modelliert werden können. Für die Berichterstattung hieße das etwa, die Teilnahme in Relation zu oder gar Abhängigkeit vom Bildungsangebot zu betrachten oder Erträge in Relation zu oder gar Abhängigkeit von Qualifikationsmerkmalen des Personals in der Weiterbildung zu analysieren.
Jede Integration von Statistiken im Interesse einer komplexeren, theoretisch anspruchsvoll fundierten und damit auch praktisch belangvollen Berichterstattung stellt erhebliche Anforderungen an das Design. Bereits basale Konzepte der Integration, in denen beispielsweise Statistiken größerer Reichweite Referenzwerte für solche geringerer Reichweite liefern (etwa um die Weiterbildungsbeteiligung in einer Region mit der bundesweiten zu vergleichen), erfordern ein hohes Maß an Abstimmung der zu erfassenden Konstrukte, der Erhebungskonzepte und der Stichprobenziehung. Jeder darüber hinausgehende Anspruch – beispielsweise im Rahmen eines Matchings von Daten zum Weiterbildungsangebot mit Daten zur Weiterbildungsteilnahme auf sozialräumlicher Ebene – steigert diese Anforderungen. Am anspruchsvollsten, aber vermutlich auch am ertragreichsten wären genestete Daten, in der Weiterbildungsteilnahmen in einer hierarchischen Datenarchitektur den Angaben zu den Weiterbildungsangeboten, diese wiederum denen zu Einrichtungen, Trägern und institutionellen Kontexten zugeordnet werden können. Um analytisch anspruchsvolle Weiterbildungsberichte zu generieren, sind wissenschaftliche Vorleistungen, die institutionelle Koordination einschlägiger Forschung, methodische Entwicklung und viel Zeit erforderlich (vgl. beispielsweise Schrader & Martin 2021).
3 Nutzung und Forschung – Referenzen für die Entwicklung von Berichtssystemen
Das Verhältnis von Aggregation und Differenzierung der Informationen in Weiterbildungsberichten ist auch auf der Seite der Rezipierenden in Politik und Praxis von Bedeutung. Nach einer Expertenbefragung zur Nutzung von Weiterbildungsberichten in der Bildungspolitik und -praxis (vgl. Forbrig 2016) erfolgen Zugriffe auf hochaggregierende Berichte wie den AES, um allgemeine Entwicklungen zu verfolgen oder um Vergleichswerte zu erhalten, nicht aber im Sinne bildungspolitischer Steuerung, also um Anlässe für Interventionen zu identifizieren und deren Folgen zu kontrollieren. Für eine daten- oder gar evidenzbasierte Steuerung werden vorrangig Statistiken genutzt, die Träger oder Finanziers intern zum Monitoring ihrer Leistungen entwickeln. Beispielhaft sei hier auf die Volkshochschulstatistik verwiesen, die anhand von Längsschnittdaten eine zwischen Einrichtungen und Regionen vergleichende Analyse der Angebotsstrukturen von Volkshochschulen erlaubt, und auf die Statistiken der Bundesagentur für Arbeit, mit denen Erwerbsverläufe im Anschluss an die Teilnahme an arbeitsmarktpolitisch geförderte Weiterbildungsteilnahmen nachvollzogen werden können.
Die Schließung der Lücke zwischen einer empirisch fundierten Information über Zustände bzw. Trendentwicklungen in der Weiterbildung und einer evidenzbasierten Steuerung erfordert Forschung, die zur Entwicklung gehaltvoller Berichtskonzepte beiträgt. An die Idee evidenzbasierter Steuerung anschlussfähige Forschungsdesigns gehen in ihren Erkenntnisansprüchen über das Monitoring hinaus und zielen auf Erklärungswissen. Theoretisch basieren sie auf Modellannahmen, die Wirkungen von praktisch bzw. politisch gestaltbaren Variablen (beispielsweise die Dichte von Angeboten der Weiterbildung oder die Unterstützung individueller Teilnahme) auf Kriteriumsvariablen (beispielsweise Teilnahme an oder Erträge aus Weiterbildung) postulieren und empirisch überprüfbar machen. Monitorings oder Berichtssysteme können eine sekundäranalytisch nutzbare Datenbasis für einschlägige Forschungsprojekte bieten. Beispielhaft sei hier auf eine Studie verwiesen, in der Daten der Volkshochschulstatistik genutzt wurden (vgl. Martin & Muders 2018). Sie zeigt in einem Längsschnittdesign auf, dass die Kooperation zwischen Einrichtungen zu einem erhöhten Kursangebot und darüber vermittelt zu einer Erhöhung der Teilnehmendenzahl führt. Zudem können kooperierende Einrichtungen auch über die in Kooperation organisierten Kurse hinaus einen Zuwachs an Teilnehmenden verzeichnen.
Nicht immer bieten sekundäranalytisch genutzte Daten eine hinreichende Grundlage für die Umsetzung anspruchsvoller Forschungsdesigns, sodass Wirkungsannahmen sich bisweilen auch trotz schlüssiger Modellierung und sorgfältiger Analyse nicht bestätigen lassen (beispielsweise Rüter et al. 2020). Forschung kann in diesen Fällen aber dazu beitragen, die Datenerhebungskonzepte für Monitorings in Richtung ihrer Anschlussfähigkeit für die Forschung zu entwickeln. Zudem kann Forschung den Informationswert deskriptiver Monitorings und Berichte auch dann erhöhen, wenn sie nicht mit den gleichen Datengrundlagen arbeiten. So verlangen Beschreibungen von Zuständen oder Zusammenhängen nach kausalen Erklärungen. In Bildungsberichten selbst können sie aus konzeptionellen Gründen und auch bedingt durch die verfügbaren Datengrundlagen oft nicht gegeben werden. Allerdings können Studien, deren Design Kausalanalysen erlaubt, die Interpretation rein deskriptiver Befunde aus Berichten erheblich bereichern. So erhöht sich der Informationswert der Beschreibung von Erträgen der Weiterbildung mit arbeitsmarktpolitischen Zielsetzungen (Autor*innengruppe Bildungsberichterstattung 2022, S. 244 f.), wenn man sie vor dem Hintergrund von Forschungsbefunden liest, die Mechanismen der Zielgruppenabhängigkeit arbeitsmarktlicher Erträge beleuchten (beispielsweise Schwerdt et al. 2012).
Mit den hier skizzierten Verzahnungen zwischen Weiterbildungsberichterstattung und Weiterbildungsforschung soll darauf hingewiesen werden, dass der – auch praktisch zu verwertende – Informationsgehalt von Berichten in dem Maße erhöht werden kann, in dem das Wissen über die Bedingtheit bedeutsamer Indikatoren steigt. Die Identifikation dieser Indikatoren, ihre Einbettung in Modellannahmen über Wirkungszusammenhänge und die empirische Überprüfung dieser Modellannahmen bilden ein Feld, in dem eine interdisziplinär arbeitende Weiterbildungsforschung theoretische und praktische Relevanz gewinnen kann.
Literatur
Autor*innengruppe Bildungsberichterstattung (2022). Bildung in Deutschland 2022. Ein indikatorengestützter Bericht mit einer Analyse zum Bildungspersona. Bielefeld: wbv Publikation.
Bromme, R. & Prenzel, M. (Hrsg.) (2014). Von der Forschung zur evidenzbasierten Entscheidung. Die Darstellung und das öffentliche Verständnis der empirischen Bildungsforschung (ZfE-Sonderheft 27). Wiesbaden: Springer VS.
Bilger, F. & Strauß, A. (2021). Weiterbildungsverhalten in Deutschland 2020. Ergebnisse des Adult Education Survey – AES-Trendbericht. Berlin: BMBF.
BMAS – Bundesministerium für Arbeit und Soziales & BMBF – Bundesministerium für Bildung und Forschung. (2019). Strategiepapier Nationale Weiterbildungsstrategie. Berlin.
Faulstich, P. & Zeuner, C. (2015). Ökonomisierung und Politisierung des Feldes der Erwachsenenbildung: Die Rolle der Wissenschaft. Erziehungswissenschaft 26(50), 25–35.
Forbrig, D. (2016). Ergebnisse einer explorativen Interviewstudie. In H. Kuper, F. Behringer & J. Schrader (Hrsg.), Entwicklung von Indikatoren und einer Datengewinnungsstrategie für die Weiterbildungsstatistik in Deutschland (Wissenschaftliche Diskussionspapiere 176, S. 66–73). Bonn: BIBB.
KMK – Kultusministerkonferenz. (2016). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Köln: Carl Link.
Kuper, H., Behringer, F. & Schrader, J. (Hrsg.) (2016). Entwicklung von Indikatoren und einer Datengewinnungsstrategie für die Weiterbildungsstatistik in Deutschland. Eine Expertise (Wissenschaftliche Diskussionspapiere 176). Bonn: BIBB.
Lange, H. (2008). Vom Messen zum Handeln: „empirische Wende“ der Bildungspolitik? In: Recht der Jugend und des Bildungswesens 56(1), 7–15.
Martin, A. & Muders, S. (2018). Zum Nutzen von Kooperationen für Volkshochschulen. Zeitschrift für Erziehungswissenschaft 21(2), 383–405.
Rosenbladt, B. v. (2010). Vom Erkenntniswert der Vogelperspektive. Weiterbildung in Zahlen am Beispiel von BSW und AES. DIE Zeitschrift für Erwachsenenbildung 17(4), 34–38.
Roth, H. (1962). Die realistische Wendung in der pädagogischen Forschung. Neue Sammlung 2(6), 481–491.
Rüter, F., Martin, A. & Schrader, J. (2020). Educational Leave as a Time Resource for Participation in Adult Learning and Education. Frontiers in Psychology 10, Artikel 2977. https://doi.org/10.3389/fpsyg.2019.02977
Schrader, J. (2011). Struktur und Wandel der Weiterbildung. Bielefeld: wbv Publikation.
Schrader, J. & Martin, A. (2021). Weiterbildungsanbieter in Deutschland: Befunde aus dem DIE-Weiterbildungskataster. DIE Zeitschrift für Weiterbildungsforschung 44(3), 333–360.
Schwerdt, G., Messer, D., Woessmann, L. & Wolter, S. C. (2012). The impact of an adult education voucher program: Evidence from a randomized field experiment. Journal of public economic 96(7–8), 569–583. https://doi.org/10.1016/j.jpubeco.2012.03.001
Tenorth, H.-E. (2015). Bildungsforschung und Bildungspolitik im Dialog – Lernprozesse und Irritationen. Die Deutsche Schule 107(3), 264–284.
Autor
Harm Kuper, Prof. Dr., Professor für Weiterbildung und Bildungsmanagement an der FU Berlin.
Review
Dieser Beitrag wurde nach der qualitativen Prüfung durch das Peer-Review und die Redaktionskonferenz am 10.11.2022 zur Veröffentlichung angenommen.
This article was accepted for publication after qualitative peer review and editorial meeting on 10th of November 2022.
Vgl. www.kmk.org.