Content

Empirischer Teil in:

Gerhard Brandhofer

Lehr-/Lerntheorien und mediendidaktisches Handeln, page 133 - 188

Eine Studie zu den digitalen Kompetenzen von Lehrenden an Schulen

1. Edition 2017, ISBN print: 978-3-8288-3880-2, ISBN online: 978-3-8288-6732-1, https://doi.org/10.5771/9783828867321-133

Series: Wissenschaftliche Beiträge aus dem Tectum Verlag: Pädagogik, vol. 42

Tectum, Baden-Baden
Bibliographic information
Empirischer Teil 133 Empirische Untersuchung 7. Empirische Untersuchung „Bildung ist kein Arsenal, sondern ein Horizont.“ Hans Blumental Ein wesentlicher Teil dieser Arbeit ist das empirisch-analytische Forschungs projekt. Zur Beantwortung der Forschungsfragen wird eine quantitative schriftliche Befragung verwendet. Im folgenden Kapitel werden die Erhe bungsmethode, die Datenerhebung, die Auswertungsmethodik sowie die Er gebnisse der Erhebung vorgestellt. 7.1 Forschungsdesign „Wissenschaftlichkeit beruht auf systematischer Zielgerichtetheit kW Theorie“ (Atteslander, 2003, S. 123). Diese Aussage von Peter Atteslander ist der Ausgangspunkt für die Frage nach dem Forschungsdesign. Die empirische Sozialforschung verwendet in der Mehrheit aller Untersuchungen eine Befragung als Methode der Datenerhebung. Diese Befragung kann mündlich, telefonisch, schriftlich oder auch online geplant werden. Allen diesen Formen ist jedoch gemeinsam, dass die gestellten Fragen zum Ziel haben, Antworten zu den zugrundeliegenden Hypothesen zu finden, die Fragen sind instrumen talisiert (Atteslander, 2003, S. 123). Ziel der Forschung ist es, die in Kapitel 6 aufgestellten Hypothesen zu bestätigen oder zu widerlegen. Mit allen Lehren den an den Neuen Mittelschulen, an eLSA-Schulen und den Pädagogischen Hochschulen steht eine große Grundgesamtheit für eine Befragung zur Verfügung. Es war folglich notwendig, Überlegungen anzustellen, wie das Forschungsdesign gestaltet werden konnte, sodass dieser großen Anzahl an potentiellen Befragungsteilnehmern und Befragungsteilnehmerinnen am ehesten entsprochen werden kann. Die folgende Abbildung versucht eine vereinfachte Gesamtdarstellung des Forschungsablaufes wiederzugeben. 135 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Abbildung 12: Em pirisches Forschungsdesign 136 Empirische Untersuchung 7.1.1 Forschungsmethode In diesem Zusammenhang stellt sich zuerst die Frage, ob das Ziel der Hypo thesenüberprüfung eher mit einer quantitativen oder einer qualitativen Forschungsmethode erreicht werden kann. Für die Beantwortung der Hypothesen ist aufgrund deren Konstruktion eine Befragung einer Beobach tung oder Inhaltsanalyse vorzuziehen (Schnell, Hill & Esser, 2011, S. 314). Die Auswahl der Methode der Befragung hat allerdings auch einen anderen Grund, wie auch Schnell, Hill und Esser verdeutlichen: „[Es] kann eine solche Entscheidung fallen, weil eine Befragung mit einem standardisierten Fragebo gen als einzige Möglichkeit zur Erlangung verallgemeinerbarer und valider Daten gesehen wird“ (Schnell et al., 2011, S. 314). Der anonymen schriftli chen Befragung werden einige Vorteile zugestanden: Interviewfehler werden vermieden, die Antworten seien realistischer, überlegter, die Konzentration sei höher und die Zusage der Anonymität sei glaubwürdiger (Schnell et al., 2011, S. 359). Eine Sekundäranalyse, insbesondere zur Überprüfung der Hypothese zu den Wechselwirkungen zwischen der Nutzung digitaler Medien und dem lehrtheoretischen Hintergrund, wäre denkbar gewesen, wurde allerdings aufgrund des Umfangs der Teilnahme an der Befragung undurchführbar, der zusätzliche Erkenntnisgewinn hätte sich vermutlich im Rahmen gehalten (siehe auch Schnell et al., 2011, S. 358). Aus forschungsökonomischer Sicht fiel daher die Wahl auf die quantitative Forschungsmethode der schriftlichen Befragung mit Hilfe eines Fragebogens. 7.1.2 Fragebogengestaltung Nach dieser Entscheidung für eine quantitative Forschungsmethode sind in der Folge Entscheidungen über den Aufbau des Fragebogens und die Anlage der Studie zu treffen. Im Gegensatz zu anderen Studien ist es hier nicht das Ziel, den Effekt eines bestimmten Settings zu erforschen. Es handelt sich also um keine Längsschnittuntersuchung mit einer Vortestung, einem Treatment und einem Test nach der Intervention und einer Kontrollgruppe. Vielmehr werden die Hypothesen aufgrund von Vergleichen innerhalb der Gruppe der Befragungsteilnehmer/innen überprüft. Es handelt sich daher um eine einmalige Befragung. Alternativen zur gewählten Methode wären zur Beant 137 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln wortung der gestellten Forschungsfragen nicht zielführend, die Forschungsfra gen zielen nicht auf eine Intervention. 7.1.3 Gestaltung der Items In weiterer Folge gilt es drittens zu klären, ob ich für die Befragung eher offene, halboffene oder geschlossene Fragen verwenden sollte. Geschlossene Fragen haben den Vorteil, dass sie sowohl bei der Beantwortung als auch bei der Auswertung schneller abgearbeitet werden können (Porst, 2009, S. 52; Schnell et al., 2011, S. 346). Diese Form der Fragen hat allerdings auch den Nachteil, dass Befragungsteilnehmer/innen sich nicht in den vorgegebenen Kategorien wiederfinden können und daher ungewöhnliche Antwortmetho den vorziehen oder die Frage gar nicht beantworten (Porst, 2009, S. 53). Offene Fragen haben hingegen den Vorteil, dass die Teilnehmer/innen die Antwort frei formulieren können, diese Form der Frage verlangt allerdings einen höheren Zeitaufwand und auch die Auswertung ist umfangreicher (Porst, 2009, S. 55). So gäbe es noch die Alternative der halboffenen Frage: „Eine halboffene Frage bietet sich immer dann an, wenn das tatsächliche Universum möglicher Antworten auf eine Frage zwar gut abgeschätzt (ge schlossene Frage), aber nicht definitiv bestimmt werden kann (offene Frage)“ (Porst, 2009, S. 57). Unter Abwägung der Vor- und Nachteile der einzelnen Frageformen habe ich mich letztlich für geschlossene Fragen entschieden. Der leitende Grund dafür war, dass ich versuchte, eine möglichst große Menge an Personen dazu zu bewegen, an der Befragung teilzunehmen, und daher auf Zeitökonomie beim Ausfüllen der Fragebögen achtete. Die geschlossenen Fragen wurden so formuliert, dass möglichst das gesamte Spektrum an Antwortmöglichkeiten auch tatsächlich abgebildet wurde. Ich folge damit dem Ratschlag von Porst: „Verwenden Sie geschlossene Fragen immer dann, wenn Sie das Universum der Antworten sicher kennen und es aus einer bestimmten und bestimmbaren Menge besteht [...] und wenn es — ganz pragmatisch — schnell gehen soll“ (Porst, 2009, S. 64). Zur Ergänzung und zur Ermöglichung persönlicher Anmerkungen wurde am Ende des Fragebogens zusätzlich noch eine offene Frage angefügt. 138 Empirische Untersuchung 7.1.4 Skalenformat Viertens galt es zu entscheiden, ob die Beschriftung der einzelnen Items mit einer Ordinal-, einer Nominal-, einer Ratio- oder einer Intervallskala erfolgen sollte. Hier fiel die Entscheidung eindeutig zugunsten einer Intervallskala. Diese Intervallskala erhielt eine Beschriftung an den Endpunkten. Damit wird am Fragebogen verdeutlicht, dass die Skalenpunkte gleichabständig intendiert sind (Porst, 2009, S. 73). Die endpunktbenannte Skala wurde bevorzugt, weil hier nur die beiden Endpunkte zu verbalisieren waren und dadurch Missver ständnisse reduziert werden konnten. Weiters kommt dazu, „dass endpunktbenannte Skalen ausnahmslos als intervallskaliert gelten können, was durchaus im Interesse des Auswerters ist, und dass Befragungspersonen auch gut mit dieser Art von Skala arbeiten können [...]“ (Porst, 2009, S. 80). Die Frage, ob Ratingskalen als intervallskaliert interpretiert und ausgewertet werden können, wird in der Fachwelt kontrovers diskutiert. Es stellt sich die Frage, ob eine detaillierte Instruktion und eine sorgfältige Konstruktion der Skala ein intervallskaliertes Urteil der Untersuchungsteilnehmer/innen garantieren können (Bortz & Döring, 2006, S. 181). Wäre das nicht der Fall, so könnten Daten aus Untersuchungen mit Ratingskalen nicht mit parametri schen Verfahren ausgewertet werden. Bortz und Döring weisen in diesem Zusammenhang auf einen weit verbreiteten Irrtum hin. Die Behauptung, dass parametrische Verfahren intervallskalierte Daten voraussetzen, ist nicht korrekt, die mathematischen Voraussetzungen der Verfahren beziehen sich nicht auf die Skaleneigenschaften (Bortz & Döring, 2006, S. 181). Zweitens gibt es empirische Nachweise, dass — obwohl Ratingskalen nie exakt intervall skaliert interpretiert werden — die parametrische Auswertung der Daten dennoch aussagekräftig und praktikabel ist (Baker, Hardyck & Petrinovich, 1966; zitiert nach Bortz & Döring, 2006, S. 182). Schließlich folgern Bortz und Döring: „Solange die Forschung mit Ratingskalen zu sinnvollen Ergebnis sen kommt, die sich in der Praxis bewähren, besteht nur wenig Veranlassung, an der Richtigkeit der impliziten messtheoretischen Hypothesen zu zweifeln“ (Bortz & Döring, 2006, S. 182). Mit Verweis auf diese Festlegung durch Bortz und Döring werden in dieser Studie auch parametrische Verfahren zur Auswertung der Daten, die aus der Befragung mit Hilfe von Ratingskalen gewonnen wurden, eingesetzt. 139 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln 7.1.5 Skalenpunkte Somit stellt sich fünftens die Frage, wie viele Skalenpunkte verwendet werden sollen. Porst empfiehlt zwischen fünf und neun Skalenpunkten, es bleibt zu klären, ob man eine gerade oder ungerade Zahl von Auswahlmöglichkeiten zur Verfügung stellen soll (Bortz & Döring, 2006, S. 177; Porst, 2009, S. 85). Mit einer mittleren Option bei einer ungeraden Zahl an Optionen besteht das Risiko, „dass sie vermehrt als ,Fluchtkategorie1 genutzt wird“ (Porst, 2009, S. 81) aufgrund von Entscheidungsunwilligkeit oder Meinungslosigkeit. Bei geraden Skalen werden die Teilnehmer/innen zu einer Entscheidung gezwun gen und so „nimmt man ihnen die Chance, sich bewusst und gezielt in die mittlere Position einzuordnen“ (Porst, 2009, S. 82) und sie geben daher eine eigentlich inadäquate Antwort. Da es sich bei den Befragungsteilnehmern und Befragungsteilnehmerinnen ausschließlich um Lehrer/innen handelte und das — diesem Personenkreis sehr stark verinnerlichte — fünfstufige Bewertungs schema durchbrochen werden sollte, entschied ich mich letztlich für eine sechsstufige Skala. Entsprechend den beiden Itemkategorien wurden die Endpunkte dieser sechsstufigen Skala benannt und in zwei Gruppen geteilt: Gruppe 1 (trifft überhaupt nicht zu trifft völlig zu) und Gruppe 2 (nie sehr häufig). Zur Unterscheidung der Alterskohorten stand eine Frage nach dem Alter oder aber eine nach den Jahren an Unterrichtserfahrung zur Auswahl. Da die Unterrichtserfahrung in diesem Zusammenhang relevanter erschien und vermutlich auch glaubwürdiger ausgefüllt wurde, wurde nach den Jahren an Unterrichtserfahrung gefragt. Nun galt es noch, die notwendigen demografi schen Fragen (Unterrichtserfahrung, Geschlecht) bei der Befragung einzufügen. Entsprechend der Empfehlung von Rolf Porst wurden diese an das Ende des Fragebogens gesetzt (Porst, 2009, S. 143). 7.1.6 Form der Durchführung der Befragung Sechstens und letztens standen die beiden Optionen Papierform des Fragebo gens oder Zugang über eine Onlineplattform zur Befragung zur Auswahl. Onlinebefragungen können grundsätzlich per Mailversand oder über eine Webplattform durchgeführt werden. In den letzten Jahren nahmen die Befragungen über das Internet sehr stark zu, die Ursachen dafür sehen Schnell, 140 Empirische Untersuchung Hill und Esser darin, dass diese schneller durchführbar sind, keine Intervie wer/innen nötig sind, dass die erhobenen Daten nicht erfasst werden müssen, in den niedrigen Befragungskosten und der Möglichkeit, Audio- und Vi deosequenzen in die Befragung relativ einfach einzubauen (Schnell et al., 2011, S. 377). Thielsch und Weltzin betonen einen weiteren Vorteil, indem sie die Ergebnisse zahlreicher Autorinnen und Autoren zusammenfassen: „Im Vergleich zu Offlinestudien werden für Online-Untersuchungen vergleichbare oder sogar bessere Datenqualitäten festgestellt, unter anderem bedingt durch ehrlicheres Antwortverhalten, geringere Effekte sozialer Erwünschtheit, hohe empfundene Anonymität, höhere ökologische Validität und höhere Stichpro benvarianz“ (Thielsch & Weltzin, 2012, S. 110). Onlinebefragungen haben allerdings auch Nachteile. Hier sind vor allem die Schwierigkeit der Stichprobenziehung wie auch die der mangelnden Koopera tion der Teilnehmer/innen zu nennen (Schnell et al., 2011, S. 385). Aufgrund dieser Nachteile wurden bei der vorliegenden Studie mehrere Maßnahmen getroffen. Zum einen wird der Hauptteil der Befragung mit einem Onlinefragebogen durchgeführt, gleichzeitig auch ein Papierfragebogen verwendet. Die Daten der an der Onlineumfrage per Selbstselektion Teilnehmenden werden mit jenen einer Zufallsstichprobe verglichen. Damit die Kooperation der potentiellen Befragungsteilnehmer/innen gegeben ist, wurde die Onlinebefragung so konstruiert, dass die Teilnehmer/innen selbst einen Mehrwert in der Teilnahme an der Befragung sehen. Diese Konstruktion wird in Abschnitt 7.2.6 ausführlicher erläutert. 7.2 Erhebungsmethode und Datenerhebung Zur Überprüfung der Forschungshypothesen kommt entsprechend den vorangegangenen Ausführungen ein standardisierter Fragebogen zum Einsatz, der die Bereiche technologisches pädagogisches Inhaltswissen des Modells TPCK, Vernetzung und Items zum lehrtheoretischen Hintergrund umfasst. Die Statements zu diesen Segmenten werden auf einer endpunktbenannten sechsstufigen numerischen Ratingskala beantwortet. Diese geschlossenen Items der quantitativen Erhebung werden ergänzt um Fragen nach Dienst dauer, Geschlecht und eine offene Frage. 141 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln 7.2.1 Operationalisierung Die Operationalisierung der Items zu den Bereichen von Content Knowledge, Pedagogical Knowledge, Technological Knowledge und Vernetzung erfolgte in mehreren Schritten. In einem ersten Schritt wurden Fragen, die den Kompetenzen des Referenzmodells und somit dem Bereich Content Know ledge entsprechen, entworfen. In einem weiteren Schritt wurden kollaborativ Items zu den Segmenten Technological Knowledge und Pedagogical Know ledge von der NMS-E-Learning-Steuergruppe erstellt. Diese Items wurden mehreren österreichweiten Arbeitsgruppen zur Diskussion vorgelegt. Die Ergebnisse dieser Diskussionen fanden Eingang in den Itemkatalog und dieser wurde in überarbeiteter Form wiederum den Gruppen gegeben. Bei der Formulierung der Items wurden Porsts zehn Gebote der Fragenformu lierung berücksichtigt: „1. Du sollst einfache, unzweideutige Begriffe verwenden, die von allen Befragten in gleicher Weise verstanden werden! 2. Du sollst lange und komplexe Fragen vermeiden! 3. Du sollst hypothetische Fragen vermeiden! 4. Du sollst doppelte Stimuli und Verneinungen vermeiden! 5. Du sollst Unterstellungen und suggestive Fragen vermeiden! 6. Du sollst Fragen vermeiden, die auf Informationen abzielen, über die viele Befragte mutmaßlich nicht verfügen! 7. Du sollst Fragen mit eindeutigem zeitlichen Bezug verwenden! 8. Du sollst Antwortkategorien verwenden, die erschöpfend und dis junkt (überschneidungsfrei) sind! 9. Du sollst sicherstellen, daß der Kontext einer Frage sich nicht auf deren Beantwortung auswirkt! 10. Du sollst unklare Begriffe definieren!“ (Porst, 2000, S. 2). Um dem Ziel der eindeutigen Fragen näherzukommen, wurde der Fragebogen unterschiedlichen Gruppen von Lehrenden vorgelegt und mehrfach überarbei- Als Grundlage für die Items zur lerntheoretischen Ausrichtung wurde der am Deutschen Institut für Internationale Pädagogische Forschung und an der Universität Zürich entwickelte Lehrerfragebogen zur Erfassung von Unter richts-, selbst- und schulumweltbezogenen Kognitionen benutzt. Aus dem 142 Empirische Untersuchung Teilbereich des konstruktivistischen Verständnisses wurden jene Items ausgewählt, die nicht explizit auf den Mathematikunterricht abzielen. Die Verwendung dieser Items hat den Vorteil, dass diese auf ihre Reliabilität hin überprüft sind (Gärtner, 2007, S. 123; Lipowsky et al., 2002). Diese geschlossenen Items wurden wie angeführt zur Überprüfung der Hypothesen um eine Frage nach der Anzahl der Jahre als Unterrichtender und eine nach dem Geschlecht ergänzt. Um den Teilnehmerinnen und Teilneh mern zu ermöglichen, auch ihnen wichtige Punkte verschriftlichen zu können, wurde abschließend eine allgemeine offene Frage hinzugefügt. Der endgültig verwendete Fragebogen befindet sich im Anhang. 7.2.2 Pretest, Verständlichkeit, Redundanzen und Zeitbedarf Zur Überprüfung der Verständlichkeit, einer Präzisierung der Fragestellungen, zur Eliminierung von Redundanzen, einer Testung der Skalierung und der internen Konsistenz wurden zwei Pretests durchgeführt. Der erste Pretest wurde mit der Onlineversion des Fragebogens gemacht. 39 Personen haben an dieser Testung teilgenommen. Der zweite Teil des Pretests wurde mit der Papierform und der Onlineversion des Fragebogens durchgeführt, insgesamt haben 130 Personen teilgenommen. Aufgrund der Rückmeldungen zum ersten Durchgang wurden einige Items umformuliert. Insbesondere die negativ formulierten Items P.2.1, P.2.2 und P.2.3 wurden gewendet (der Fragenkatalog befindet sich im Anhang dieser Arbeit). Schwierig zu operationalisieren war das Item C.3.8 zu den Kenntnissen zur Nutzung von sozialen Netzwerken. Hier wurde bemängelt, dass ein Lehrender auch kompetent im Umgang mit sozialen Netzwerken sein könnte, auch wenn er nicht selbst aktiv an diesen Netzwerken teilnimmt. Das Item C.3.8 wurde daher folgendermaßen formuliert: „Ich weiß, wie man soziale Netzwerke verantwortungsvoll nutzen kann und kann meine Schüler/innen beraten.“ Das Item zur Auswahl digitaler Medien für den Fachunterricht wurde neu formuliert: „Ich bin in der Lage, die am besten geeigneten digitalen Materia lien für mein Fach auszuwählen.“ Einige Items wurden nach dem ersten Pretest aus dem Fragebogen entfernt. Aufgrund der geringen Aussagekraft, weil die Normalverteilung stark nach 143 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln rechts verschoben war, wurden folglich die Items „Ich kann Mails mit Dateianhängen versenden“ und „Ich kann Ordner anlegen“ nach der ersten Testung gestrichen. Das Item „Ich gehe im Unterricht auf die Erfahrungen von Mädchen und Burschen im Umgang mit digitalen Medien gleichermaßen ein“ wurde zwar als wichtig betrachtet, konnte allerdings keinem der Bereiche eindeutig zugeordnet werden und verringerte die Reliabilität der Konstrukte deutlich. Die Items „Ich gebe Hausübungen am Computer“ sowie „Ich arbeite mit meinen Schülern/Schülerinnen an E-Portfolios“ wurden von Expertinnen und Experten als nicht repräsentativ angesehen und daher nicht weiter berücksichtigt. Item C.4.1 zum Bereich des informatischen Wissens wurde zur Absicherung der Verständlichkeit um die Items C.4.2 und C.4.3 ergänzt. Generell war es herausfordernd, die Items zu den Anwendungskompetenzen zum einen verständlich und zum anderen plattformunabhängig zu formulie ren. Um die Verständlichkeit sicherzustellen, wurde allen Items eine kurze Erläuterung beigefügt. Schließlich wurde auch der Zeitbedarf für das Ausfüllen des Fragebogens erhoben. Die Intention war, dass die Teilnehmer/innen für die Bearbeitung der Items insgesamt nicht länger als 10 Minuten benötigen. Diese Vorgabe wurde sowohl für die Onlineversion als auch für die Papierform des Fragebo gens generell eingehalten. 7.2.3 Objektivität „Die Qualität eines Tests bzw. Fragebogens lässt sich an drei zentralen Kriterien der Testgüte festmachen: Objektivität, Reliabilität und Validität“ (Bortz & Döring, 2006, S. 195). Bereits im Rahmen der Vortestungen wurden Überlegungen zur Sicherung dieser drei Kriterien angestellt, welche hier dargelegt werden sollen. Die Objektivität eines Fragebogens ist gegeben, „wenn verschiedene Testan wender bei denselben Personen zu den gleichen Resultaten gelangen, d.h., ein objektiver Test ist vom konkreten Testanwender unabhängig“ (Bortz & Döring, 2006, S. 195). Bei der Objektivität einer Befragung gilt es, die Auswertungsobjektivität von der Durchführungsobjektivität und der Interpretationsobjektivität zu unter scheiden. Unter Auswertungsobjektivität versteht man die Unabhängigkeit der 144 Empirische Untersuchung Auswertung der Rohdaten von der Person des Versuchsleiters (Bortz & Döring, 2006, S. 195). Eine genaue Beschreibung der Auswertungsregeln und -verfahren soll dies sicherstellen, Items mit geschlossenem Antwortformat sind für die Auswertungsobjektivität förderlich (Scherbaum, Rudolf & Bergmann, 2013). Durch die Konstruktion des Fragebogens mit geschlossenen Items ist eine möglichst hohe Auswertungsobjektivität gegeben. Die Auswertungsobjek tivität ist generell bei quantitativen Befragungen sehr hoch und benötigt daher hier keine weiteren Überlegungen (Diekmann, 1998, S. 217; Wellenreuther, 2000, S. 279). Unter Durchführungsobjektivität versteht man, dass die Testergebnisse der Befragungsteilnehmer/innen unabhängig von der Untersuchungsleitung sind (Bortz & Döring, 2006, S. 195). Bühner erläutert das ausführlicher: „Dazu muss genau definiert sein, wie und unter welchen Bedingungen ein Test, Fragebogen, Interview oder eine Verhaltensbeobachtung durchzuführen ist. Zeitbegrenzung oder Hilfestellung bei der Beantwortung der Fragen müssen vorgegeben sein“ (Bühner, 2011, S. 59). Um die Durchführungsobjektivität zu gewährleisten, wurden bei der Befra gung einige Kriterien unter Bezugnahme auf Scherbaum, Rudolf und Bergmann berücksichtigt: „Erhebungsinstrumente gewähren eine gute Durchführungsobjektivität, wenn ihre Handhabung detailliert und eindeutig beschrieben ist“ (Scherbaum, Rudolf & Bergmann, 2013). Es wurde eine schriftliche Erläuterung des Zieles der Befragung verfasst, welche zur Verfü gung gestellt wurde. Somit wurde der Interpretationsspielraum durch mündliche Informationen verringert. Aber auch die Standardisierung von Erklärungen bei Hilfsbedarf wurde berücksichtigt. Bei allen Items wurde ein erläuternder Text bereitgestellt, welcher abrufbar war. Auch dieser war für alle Personen, die an der Befragung teilnahmen, in gleicher Art und Weise zugänglich. Dadurch standen sowohl Testinstruktionen als auch die Erklärung der Items sowohl für die Papierform als auch für die Onlineversion in gleichem Maße zur Verfügung und waren standardisiert. Die Interpretationsobjektivität beschreiben Bortz und Döring folgenderma ßen: „Individuelle Deutungen dürfen in die Interpretation eines Testwertes nicht einfließen“ (Bortz & Döring, 2006, S. 195). Die ausgewerteten Daten werden also personenunabhängig ähnlich interpretiert (Scherbaum, Rudolf & Bergmann, 2013). Da zum einen bei dieser Studie keine Interpretation von einzelnen Befragungsteilnehmerinnen / Befragungsteilnehmern durchgeführt 145 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln werden und zum anderen auch die Schulgruppenergebnisse untereinander mit den zuvor festgelegten Normen in Beziehung gesetzt werden, ist die Interpre tationsobjektivität gegeben. 7.2.4 Reliabilität Die Reliabilität einer Befragung steht für die Messgenauigkeit des Messverfah rens. Bortz und Döring beschreiben diese folgendermaßen: „Die Reliabilität ist umso höher, je kleiner der zu einem Messwert X gehörende Fehleranteil E ist“ (Bortz & Döring, 2006, S. 196). Reliabilität steht also für die Genauigkeit eines Messverfahrens, sie besagt nichts über die Richtigkeit der Ergebnisse. Zur Messung der Reliabilität der Befragung wurde bereits beim Pretest und in der Folge auch bei der Hauptuntersuchung die interne Konsistenz überprüft. Andere Möglichkeiten der Reliabilitätsprüfung wie die Test-Retest-Methode oder die Paralleltestmethode kamen für die Befragung aufgrund deren Konstruktion nicht in Frage. Der Überprüfung der internen Konsistenz mittels Cronbachs Alpha wurde gegenüber der Testhalbierungsmethode der Mit Ausnahme des Konstrukts der Vernetzung waren alle Werte für Cron bachs Alpha mit Werten höher als 0,7, entsprechend den Empfehlungen in der Literatur, ausreichend bis hoch (Bortz & Döring, 2006, S. 199; Schnell et al., 2011, S. 153). Bei dem Konstrukt Vernetzung wurde das Item V.2 aus der Auswertung entfernt, dadurch war auch hier der Wert für Cronbachs Alpha höher als 0,7. Im Folgenden führe ich die Werte für Cronbachs Alpha beim Pretest für die einzelnen Konstrukte an. 146 Empirische Untersuchung Skala Cronbachs Alpha Anzahl der Items Content Knowledge 0,904 14 Technological Knowledge 0,732 6 Pedagogical Knowledge 0,752 10 Vernetzung (ohne V.2) 0,708 4 Konstruktivismus 0,780 3 Tabelle 2: Reliabilitätswerte Pretest (N = 130) Die Fragen zur konstruktivistischen Sichtweise stammen aus der Fragenbatte rie von Lipowsky et al., und es wurde bereits die Reliabilität bei anderen Befragungen kontrolliert (Lipowsky et al., 2002). Die Überprüfung der Reliabilität der Skala durch Gärtner erbrachte einen Wert von a = 0,79 bei sieben Items (Gärtner, 2007, S. 121). Bei dieser Befragung wurde darauf geachtet, dass durch Beachtung verschie dener Faktoren die Motivation zur Beantwortung des Fragebogens hoch ist. Es sollten möglichst viele Personen zur Teilnahme motiviert werden. Einer dieser Faktoren ist der Umfang der Befragung, der bewusst klein gehalten wurde. Bei Konstrukten mit wenigen Items ist zu beachten, dass auch der Wert für Cronbachs Alpha niedriger ausfällt und folglich Werte zwischen 0,6 und 0,8 akzeptabel sein können (Diekmann, 1998, S. 255). Christian Herr hat diese Werte vorgegeben: „Bei drei bestehenden Indikatoren gilt ein Wert von 0,6 und bei vier bzw. mehr Indikatoren ein Wert von mindestens 0,7 als zulässig“ (Herr, 2007, S. 216). Das einzige Konstrukt mit nur drei Items (Konstrukti vismus) ist mit einem Wert von 0,780 deutlich über der Vorgabe. Mit dem Ausschluss der Frage V.2 beim Konstrukt Vernetzung ist auch hier ein ausreichend hoher Wert gegeben. Mit Hilfe der Überprüfung der internen Konsistenz durch die Berechnung von Cronbachs Alpha konnte folglich die Reliabilität der Befragung sichergestellt werden. 147 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln 7.2.5 Validität Die Validität gilt gemeinhin als wichtigstes Testgütekriterium, hohe Objekti vität und hohe Reliabilität alleine besagen noch nicht, ob die Befragung auch valide ist. Bortz und Döring führen zu diesem Testgütekriterium aus: „Die Validität eines Tests gibt an, wie gut der Test in der Lage ist, genau das zu messen, was er zu messen vorgibt“ (Bortz & Döring, 2006, S. 200). Schnell et al. definieren Validität wie folgt: „Unter ,Validität‘ (Gültigkeit eines Messin struments) versteht man das Ausmaß, in dem das Messinstrument tatsächlich das misst, was es messen sollte. Neben Reliabilität ist Validität das zentrale Gütekriterium einer Messung“ (Schnell et al., 2011, S. 155). Es werden verschiedene Arten der Validität unterschieden: die Inhalts-, die Kriteriums und die Konstruktvalidität. Die Inhaltsvalidität gibt an, ob das zu messende Konstrukt durch die Befra gung vollinhaltlich abgebildet wird, Inhaltsvalidität ist keine Kenngröße, die numerisch festgelegt werden kann (Scherbaum, Rudolf & Bergmann, 2013). Vielmehr soll bei der Auswahl der Items, die in die Befragung aufgenommen werden, sichergestellt werden, dass die gewählten Items möglichst repräsenta tiv für das zu messende Konstrukt gewählt wurden. Eine häufig angewendete Methode, um die Inhaltsvalidität sicherzustellen, ist jene des Expertenratings (Bühner, 2011, S. 63; Schnell et al., 2011, S. 155). Das übereinstimmende Urteil von zahlreichen Experten zu einzelnen Items über deren Eignung zur Abbildung des jeweiligen Konstrukts weist auf eine hohe Inhaltsvalidität hin. Zur Erstellung dieses Fragebogens wurde auf ein derartiges Expertenrating zurückgegriffen. Die einzelnen Items wurden der E-Learning-Strategiegruppe der Pädagogischen Hochschulen, der österreichischen eLSA-Bundesländerkoordinationsgruppe, der NMS-E-Learning-Steuergruppe und einer Gruppe von ausgewählten Lehrerinnen und Lehrern vorgelegt und im Rahmen von Tagungen oder Sitzungen diskutiert. Diese Diskussion in den Fachgruppen diente dazu, möglichst repräsentative Items auszuwählen und damit die Inhaltsvalidität zu erhöhen. Die Kriteriumsvalidität wird überprüft, indem man die Testergebnisse mit einem Kriterium vergleicht, welches nicht Bestandteil des Tests ist: „Die Kriteriumsvalidität ist definiert als Korrelation [...] zwischen den Testwerten und den Kriteriumswerten einer Stichprobe“ (Bortz & Döring, 2006, S. 200). Die Schwierigkeit bei der Festlegung der Kriteriumsvalidität für diese Befragung ist, dass nicht für alle Konstrukte ein adäquates Außenkriterium 148 Empirische Untersuchung gefunden werden kann. Beim Konstrukt der lerntheoretischen Orientierung wurde aus diesem Grund auf die überprüfte Fragenbatterie von Lipowsky et al. zurückgegriffen (Gärtner, 2007, S. 123; Lipowsky et al., 2002). Die Ergebnisse der hemmenden Faktoren wurden mit denen zur Computerängst lichkeit aus dem Inventar zur Computerbildung verglichen. Damit wurden die möglichen Prozesse zur Erhöhung der Kriteriumsvalidität erschöpfend durchgeführt. Die Konstruktvalidität ist von entscheidender Bedeutung für die Qualität einer Befragung. Bortz und Döring beschreiben diese so: „Ein Test ist konstruktvalide, wenn aus dem zu messenden Zielkonstrukt Hypothesen ableitbar sind, die anhand der Testwerte bestätigt werden können“ (Bortz & Döring, 2006, S. 201). Zur Feststellung der Konstruktvalidität werden bei quantitativen Untersuchungen häufig Faktorenanalysen herangezogen (Schnell et al., 2011, S. 161). Auch für den Pretest zur endgültigen Befragung wurde eine Faktorenanalyse durchgeführt. Aufgrund der Konzeption des Modells TPCK und der Überschneidungen der Bereiche CK, PK und TK ist eine eindeutige Zuweisung einzelner Indikatoren zu einem Bereich weder durchführbar noch sinnvoll, dennoch wurde darauf geachtet, dass keiner der Indikatoren eine große Fehlladung aufweist und alle dem richtigen Bereich zugeordnet sind. Die Korrelation innerhalb der Konstrukte wurde nach Kaiser-Meyer-Olkin-Maß überprüft. Die Werte dafür befinden sich in folgender Tabelle. Skala Maß der Stichprobeneignung nach Kaiser-Meyer-Olkin-Maß CK 0,846 PK 0,796 TK 0,842 Tabelle 3: Korrelation der Skalen CK, TK und PK beim Pretest (N = 130) 149 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Nach Kaiser gelten alle Werte zwischen 0,8 und 0,9 als recht gut und Werte zwischen 0,7 und 0,8 als mittelmäßig (Kaiser, 1974). Das bedeutet, dass aufgrund des Pretests die Stichprobeneignung nach Kaiser-Meyer-Olkin-Maß für die Skalen CK und PK recht gut und für den Bereich TK mittelmäßig ist. Für die Konstruktvalidität ist es aber wichtig, dass die Konstrukte TPCK und Konstruktivismus klar voneinander getrennt sind, daher wurde auch hier eine Faktorenanalyse vorgenommen. Die Fehlladungen sind mit Werten von -0,131 bis 0,245 bei einer rotierten Komponentenmatrix sehr gering (Schnell et al., 2011, S. 164). Damit kann davon ausgegangen werden, dass tatsächlich unterschiedliche Dimensionen gemessen werden. Somit sollte die Konstruktvalidität sichergestellt sein. 7.2.6 Durchführung der Befragung Seitens des Bundesministeriums für Unterricht, Kunst und Kultur gab es finanzielle Unterstützung zur Programmierung der elektronischen Form der Befragung, hier konnte auf ein bereits vorhandenes Tool aus dem Bereich der Qualitätssicherung an Schulen zurückgegriffen werden. Die Webplattform sollte gleichzeitig ein Angebot an die Lehrenden wie an die Schulen sein, den aktuellen Stand an Kenntnissen und Fertigkeiten im Umgang mit digitalen Medien bei den Lehrenden zu ermitteln und daraus Fortbildungsmaßnahmen am Schulstandort oder auch standortübergreifend zu initiieren und zu planen. Der Selbsteinschätzungsfragebogen kann anonym ausgefüllt werden, durch die Erstellung von TANs ist die Zuordnung von Lehrenden an einen Schulstand ort gegeben. Durch diesen Primärnutzen für Schulen und Lehrende sollte gewährleistet werden, dass die Teilnahme an der Befragung hoch ist. Gleich zeitig wurde die Papier-Bleistift-Version für die Möglichkeit, den Fragebogen im Rahmen von Konferenzen auszufüllen, zur Verfügung gestellt. Zusätzlich konnten Lehrende an Pädagogischen Hochschulen die Papierform des Fragebogens für Längsschnittuntersuchungen verwenden. 7.2.7 Zielgruppe und Stichprobe Für die Befragung waren drei Zielgruppen vorgesehen: Lehrende an Neuen Mittelschulen, an eLSA-Schulen und Lehramtsstudierende an Pädagogischen 150 Empirische Untersuchung Hochschulen in Österreich. Im Schuljahr 2012/13 gab es in Österreich 692 Neue Mittelschulen und 183 eLSA-Schulen sowie 14 Pädagogische Hoch schulen. An den Neuen Mittelschulen unterrichteten im Schuljahr 2012/13 österreichweit 28 994 Lehrpersonen (Statistik Austria, 2013a). Von den eLSA Schulen waren 79 vom Schultyp Allgemeinbildende Höhere Schulen und somit noch nicht in der Zahl der NMS berücksichtigt; bei einer durchschnitt lichen Lehrendenanzahl von etwa 64,5 Personen pro Schule ergibt das in Summe 5093 Lehrende an eLSA-AHS (Statistik Austria, 2013a; Stemmer, 2005). An den Pädagogischen Hochschulen studierten insgesamt 4042 Personen im Studiengang Lehramt für Hauptschulen / Neue Mittelschulen (Statistik Austria, 2013b). Für das — für die Untersuchung relevante — Schuljahr 2013/14 liegen keine Zahlen vor, es kann allerdings davon ausge gangen werden, dass sich für dieses Jahr keine gravierenden Verschiebungen in der Gesamtzahl ereignet haben. Es ergeben sich entsprechend den Daten der Statistik Austria und des Projektes eLSA in Summe 38 129 potentielle Befragungsteilnehmer/innen (Statistik Austria, 2013a). Die Teilnahme an der Befragung basiert auf Freiwilligkeit, es wurde zuvor keine Stichprobe ausgewählt, die Befragung ist für die gesamte Zielgruppe potentiell durchführbar. Jürgen Friedrichs hat für die Wahl einer Stichprobe im Bereich der empirischen Sozialforschung folgende Anforderungen ange führt: „Die Stichprobe muß ein verkleinertes Abbild der Grundgesamtheit hinsichtlich der Heterogenität der Elemente und hinsichtlich der Repräsenta tivität der für die Hypothesenprüfung relevanten Variablen sein. Die Einheiten oder Elemente der Stichprobe müssen definiert sein. Die Grundge samtheit sollte angebbar und empirisch definierbar sein. Das Auswahlverfahren muss angebbar sein und Forderung (1) erfüllen“ (Fried richs, 1990, S. 125). Die Grundgesamtheit wurde oben angeführt, es handelt sich um 38 129 Lehrende und Studierende der Sekundarstufe I. Jeder Person der Grundge samtheit steht die Option offen, an der Befragung teilzunehmen; ob sie daran teilnehmen möchte, liegt in ihrem Ermessen. Das Auswahlverfahren kann folglich als selbstselektive Auswahl angegeben werden, dazu Althoff: „Stich proben durch Selbstselektion zeichnen sich durch die autonome Entscheidung von Seiten der Probanden aus, ob diese an einer Untersuchung teilnehmen oder nicht, ohne dass sie direkt von einem Durchführenden einer Untersu chung (z.B. einem Interviewer oder Kontakter) angesprochen werden“ 151 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln (Althoff, 1993, S. 40). Bortz und Döring fordern ebenso wie Friedrichs von einer Stichprobe allerdings Repräsentativität: „Um mit Hilfe einer Stichpro benerhebung (anstelle einer Vollerhebung) gültige Aussagen über eine Population treffen zu können, muss die Stichprobe repräsentativ sein, d. h., sie muss in ihrer Zusammensetzung der Population möglichst stark ähneln“ (Bortz & Döring, 2006, S. 397). Bei einer durch Selbstselektion gewonnenen Stichprobe kann die Repräsentativität beeinträchtigt werden (Einwiller, 2003, S. 156; Köhler, 2001, S. 288). Diese Repräsentativitätsproblematik von Onlineerhebungen trifft in erster Linie auf klassische Meinungsforschung zu, bei der Überprüfung kausaler Zusammenhänge, wie es bei dieser Studie der Fall ist, ist sie nach Sabine Einwiller vernachlässigbar (Einwiller, 2003, S. 157). Bei der Überprüfung der Gültigkeit von aus Theorien oder Modellen abgeleiteten Hypothesen ist Repräsentativität weniger wichtig als bei der Schätzung von Populationsparametern: „Die eher geringe Bedeutung der Repräsentativität liegt vor allem darin begründet, dass die Überprüfung der Theorien an verschiedenen Stichproben der Grundgesamtheit durchgeführt werden kann [...]. Wenn eine Theorie Gültigkeit besitzt, muss sich dies bei jeder Stichprobe erweisen“ (Einwiller, 2003, S. 157). Peter Hauptmanns sieht die Hauptursache für Stichprobenverzerrungen bei Onlinebefragungen in der Auffindbarkeit des Fragebogens (Hauptmanns, 1999, S. 25). Da die vorliegende Befragung in der Art organisiert war, dass die Informationen nicht über eine Suchmaschine oder Werbemaßnahmen sondern über die Schulnetzwerke verteilt wurden, fällt dieser beeinflussende Aspekt weg. Vogt fasst zu Verzerrungen bei elektronischen Befragungen zusammen, dass „unter dem Gesichtspunkt technisch bedingter Verzerrungen die Datenqualität von elektronischen Befragungen mit der herkömmlicher Erhebungsmethoden vergleichbar ist“ (Vogt, 1999, S. 142). Die Schlussfolgerung zur Repräsentativitätsproblematik bei WWW-Umfragen von Thomas Köhler lautet: „Eine breitere Streuung von Hinweisen auf eine Untersuchung oder eine gezogene Stichprobe könnten hier die Repräsentativi tät erhöhen“ (Köhler, 2001, S. 288). Daher wurden bei dieser Untersuchung — obwohl dies durch die oben angeführten Argumente nicht erforderlich gewesen wäre - zusätzlich zur Auswahl per Selbstselektion bei der Studie Schulen per Zufallsprinzip ausgewählt und es wurde an diesen Schulen der Fragebogen von allen Lehrenden ausgefüllt. Die Ergebnisse dieser Zufalls stichprobe wurden mit jenen der Ergebnisse durch Selbstselektion verglichen 152 Empirische Untersuchung und so konnte die Repräsentativität der gesamten Befragung abgesichert werden (siehe Abschnitt 7.6.2). Bei einem vorgegebenen Konfidenzintervall von 5 % und einem Konfidenzlevel von 95 % liegt die Mindestgröße der Stichprobe bei 381 Personen (Bortz & Döring, 2006, S. 420; Ladislaus von Bortkiewicz Lehrstuhl für Statistik der Wirtschaftswissenschaftlichen Fakultät an der Flumboldt-Universität zu Berlin, 2009). 7.2.8 Untersuchungszeitraum Die Vorarbeiten zur Untersuchung, die Erstellung und Überarbeitung des Fragebogens, die Einrichtung der Webplattform, eine erste Erhebung und der Pretest fanden von September 2012 bis August 2013 statt. Der Haupterhe bungszeitraum für die Studie war von September 2013 bis Juli 2014. Die Befragung umfasste insgesamt 40, genauer gesagt — durch die Erweiterung zur Skala CK - 42 Items, die in zwei Gruppen geteilt waren, der maximale Zeitbedarf für die Bewertung der Statements war entsprechend den Beobach tungen bei den Pretests 10 Minuten. Insgesamt haben 6264 Personen an der Befragung teilgenommen, das entspricht 16,4 % der Grundgesamtheit. 7.3 Auswertungsmethodik Die Daten der Onlineumfrage und des gedruckten Fragebogens wurden mit dem Statistikprogramm SPSS ausgewertet, dabei wurde sowohl auf deskriptive Verfahren (Häufigkeitsverteilungen, Kreuztabellen) als auch auf analytische Verfahren (Korrelationsanalyse zur Hypothesenprüfung) zurückgegriffen. Die Skalen TK, PK, CK, Vernetzung, lehrtheoretische Sichtweise sowie die Merkmale Unterrichtserfahrung und Geschlecht wurden aus den einzelnen Items gebildet, Korrelationsanalysen zu Subskalen zur Präzisierung der Ergebnisse waren ebenfalls vorgesehen. Im Folgenden soll die Operationalisierung der Hypothesen dargestellt werden. Zur Überprüfung der Hypothese 1 wird der Zusammenhang der beiden Skalen Konstruktivismus und pädagogische Kenntnisse untersucht. Die Skala Konstruktivismus errechnet sich aus dem Mittelwert der Items K.l bis K.3 (der gesamte Fragenkatalog befindet sich im Anhang). Diese Items entstam 153 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln men wie erwähnt der Fragenbatterie von Lipowsky et al. (2002). Das Kon strukt pädagogische Kenntnisse setzt sich aus den Items zum PK des Modells TPCK zusammen, es umfasst die Items P. 1.1 bis P.2.4. Zur Überprüfung der Hypothese 2a werden die Ergebnisse der Bereiche CK und PK aus dem Modell TPCK miteinander in Beziehung gesetzt, dies beinhaltet die Items C. 1.1 bis C.4.3 sowie P. 1.1 bis P.2.4. Hypothese 2b bezieht sich auf die informatischen Kenntnisse der Lehrenden. Zu ihrer Überprüfung werde ich die Korrelation der Anwendungskenntnisse (Items C. 1.1 bis C.3.8) mit den informatischen Kenntnissen (Items C.4.1 bis C.4.3) prüfen und die Hypothese annehmen, wenn eine signifikante Differenz besteht. Synonym ist der Vorgang zu den Kenntnissen zum Bereich Social Media, welche in Hypothese 2c aufgenommen wurden. Hier wird die Korrelation des Bereiches CK mit der Frage zum Umgang mit Social Media (C.3.8) untersucht. Hypothese 3 wird angenommen, wenn die Korrelation zwischen dem Konstrukt Vernetzung (bestehend aus den Items V.l bis V.6) und dem Bereich PK (Items P. 1.1 bis P.2.4) signifikant ist. Die Hypothesen 4a und 4b beziehen sich auf die Unterrichtserfahrung der Befragungsteilnehmer/innen. Zur Überprüfung der Hypothese 4a wird diese mit den Anwendungskenntnissen (C. 1.1 bis C.4.3) in Beziehung gesetzt, zur Testung der Hypothese 4b mit den hemmenden Faktoren (P.2.1 bis P.2.4). 7.4 Deskriptive Datenanalyse Auf Grundlage der vorgestellten Untersuchungsdurchführung soll in diesem Kapitel die deskriptive Darstellung der erhobenen Daten erfolgen. Dabei wird auf die Kennzahlen Mittelwert, Median und Standardabweichung zurückge griffen. An demografischen Daten wurden die Unterrichtserfahrung und das Geschlecht erhoben. Durch die Zuordnung zu Schulen durch den Zugang mit erzeugten TANs können weiters Aussagen über die Schulart und die angebo tenen Schulstufen und auch darüber, ob es sich bei der Befragungs teilnehmenden um Lehrende an einer E-Learning-Schwerpunktschule handelte, getroffen werden. 154 Empirische Untersuchung 7.4.1 Geschlecht und Unterrichtserfahrung Insgesamt haben an der Befragung 6264 Personen teilgenommen. Davon waren 3949 weiblich und 2043 männlich, 272 Personen haben zu dieser optionalen Frage keine Angabe gemacht. Abbildung 13: Geschlecht der Befragungsteilnehm er/innen Im Vergleich zur Grundgesamtheit der Lehrenden an der Sekundarstufe I in Österreich sind die Lehrer gegenüber den Lehrerinnen bei der Befragung (32,6 % der Lehrenden in Österreich sind Lehrer, bei der Befragung 27 %) leicht überrepräsentiert, die Daten spiegeln allerdings dennoch im Wesentli chen die tatsächliche Verteilung der Geschlechter der Lehrenden wider (Statistik Austria, 2013a). Die Frage nach der Unterrichtserfahrung wurde bei der Erhebung in Zehnjah resschritten erhoben (0-10 Jahre, 11-20 Jahre, 21-30 Jahre, 31-40 Jahre, mehr als 40 Jahre). Hier sieht die Verteilung der Befragungsteilnehmer/innen wie in folgender Abbildung dargestellt aus. 155 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Abbildung 14: Unterrichtserfahrung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Eine Zuordnung zwischen Unterrichtserfahrung und Lebensalter ist schwierig, aber näherungsweise machbar, da es bisher Quereinsteiger/innen in den Lehrberuf in Österreich in nicht signifikanter Höhe gab und eine Unterbre chung der Unterrichtsarbeit meist unter 10 Jahre dauert. Die Alterskohorte 1 umfasst in großen Teilen (exakte Zahlen sind nicht verfügbar, Annäherung anhand von eigenen Aufzeichnungen und Stichproben) Personen mit dem Geburtsjahrgang 1982 und jünger, Alterskohorte 2 Jahrgang 1972 und jünger, Alterskohorte 3 Jahrgang 1962 und jünger und Alterskohorte 4 Jahrgang 1952 und jünger. Ein Vergleich mit den Zahlen der Statistik Austria zeigt hier deutlich, dass durch die Verwendung der Selbsteinschätzungsfragen an den Pädagogischen Hochschulen die Gruppe der Personen mit 0 bis 10 Jahren Unterrichtserfah rung an der Umfrage in stärkeren Maße teilgenommen hat, als es der Alters verteilung in der Grundgesamtheit entspricht, die übrigen Altersbereiche aber durchaus in Relation zur Grundgesamtheit vertreten sind (Statistik Austria, 2013a). 283 Personen haben diese optionale Frage nicht beantwortet, die größte Gruppe ist jene mit Lehrenden mit 0 bis 10 Jahren Unterrichtserfah rung. 156 Empirische Untersuchung 7.4.2 Schularten und Schulstandorte Die Verteilung auf die einzelnen Bundesländer der an der Befragung Teil nehmenden, welche mittels generierter TANs die Befragung durchführten, ist in Abbildung 15 dargestellt. Abbildung 15: Teilnehm er/innen aufgeschlüsselt nach Bundesland Hier zeigt sich sehr deutlich, dass die drei Bundesländer (Niederösterreich, Wien, Tirol), in denen die Fragen zur Selbsteinschätzung als Teil eines Fortbildungskonzeptes, welches von der jeweiligen Pädagogischen Hochschule sowie dem zuständigen Landesschulrat beziehungsweise Stadtschulrat initiiert wurde, verwendet wurden, eine wesentlich höhere Anzahl an Teilnehmenden hatten. Von den an der Befragung teilnehmenden Lehrpersonen waren 644 Personen Lehrende an E-Learning-Schwerpunktschulen (eLSA-Schulen), das sind 10,3 % aller an der Befragung teilnehmenden Lehrer/innen, 1257 (20,1 %) waren Lehrende an Neuen Mittelschulen. Von den Pädagogischen Hochschulen nahmen 166 Personen oder 2,7 % an der Befragung teil, von sonstigen Schulen 1353, das entspricht 21,6 %. 2844 Personen füllten die Onlinebefra- 157 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln gung ohne Schulzuordnung aus, das entspricht 45,4 % aller Teilneh mer/innen. Mit Hilfe der Schematisierung der österreichischen Schulkennzahlen lässt sich auch die Verteilung nach Schultyp bestimmen. Demnach nahmen 2 Lehrende an Volksschulen an der Befragung teil, 1879 aus Haupt- und Neuen Mittel schulen, 36 von Allgemeinen Sonderschulen, 11 von Polytechnischen Schulen, 1251 von Allgemeinbildenden Höheren Schulen, 75 von Berufsbil denden Mittleren und Höheren Schulen und 166 von Pädagogischen Hochschulen. Zur besseren Übersichtlichkeit ist die Verteilung über die Schultypen in folgender Tabelle noch einmal zusammengefasst. Schultyp Anzahl der Befragungsteilnehmer/innen Volksschulen 2 Hauptschulen / Neue Mittelschulen 1879 Allgemeine Sonderschulen 36 Polytechnische Schulen 11 Allgemeinbildende Höhere Schulen 1251 Berufsbildende Mittlere und Höhere Schulen 75 Pädagogische Hochschulen 166 Tabelle 4: Schultypen Diese Zahlen spiegeln deutlich wider, dass die Intention der Untersuchung, den Fokus auf die Sekundarstufe I zu legen, somit erreicht wurde. Die Teilnehmenden von den Hauptschulen und Neuen Mittelschulen sowie den 158 Empirische Untersuchung Allgemeinbildenden Höheren Schulen machen 91,4 % der ausgewiesenen Schultypen aus. 7.4.3 Anwendungskenntnisse Die Skala Anwendungskenntnisse (CK) ergibt sich aus dem Mittelwert der Items von C. 1.1 bis C.4.3. Die Selbsteinschätzung zu den Anwendungskennt nissen erbrachte für die Gesamtgruppe einen Mittelwert von 4,55 bei einer Standardabweichung von 1,15. Der Mittelwert zu den Anwendungskenntnis sen war mit 4,54 (Standardabweichung 1,08) an eLSA-Schulen höher als an den Neuen Mittelschulen mit 4,29 {SD = 1,21). Bei detaillierter Betrachtung der Ergebnisse der einzelnen Items fällt auf, dass Items zur Dateiverwaltung und Ähnlichem am höchsten bewertet wurden. Die Detailergebnisse zum Bereich CK sind im folgenden Diagramm darge stellt. 159 G \ O ! ö3 S v> S2. C/on> rt ?r °8 §- ST a“ 3 nq y O c/o « 3 S g-> "o So n> Cfö- Fd j=r* 3 3 S-3 N&• g » a O Pj_. o. £ a rt m < \j\ § 'Srt. 5* < rt) o 3 3 nan>a >-at-tocrq1-1fü 2. g on> 3 00 3 CT“ n> a> I" ' 3 Co i “ » g- 2 ^ £ B- |rt rt) • 3 ö ö Ä ^rt) c/5 P ^ 3rt> 2 3 B 3 3 3^ rt) P - ^ s w p N £ I sO 2.1-t £ g - rt> rt) P5? 3 3

i-s P 13 P - P i-t P - Per 3 rD. o * t r £• P n 13 £ * W m ^on O F? 3 3 P « • ^ O o K ) O l m->oo e? ̂ i-t C n -— b 3ii r? OQ P 0 „ CTQ rt S * P » . Nrt C H a . S 3 5 n> > 3 rt> 13 P - P cn oo n> Ä 3 N P er 2 . P P CfQc« C/5 o I 1 g p H 3 rt) P . Q . C/5rt 2 •t P RT rt) o ^ U - rD s Srt> 3 u n> W 3 3cro n 3 “ 2? ow A bbildung 16: A ufstellung der M ittelw erte der Item s zu den A n w end ungskenntnissen Ich kann Texte am Computer eingeben und formatieren. Ich kann Dateien gezielt verwalten (z.B. speichern, suchen Ich kann Informationen durch die Wahl geeigneter Suchbegriffe recherchieren. Ich kann am Computer individuelle Veränderungen (z.B. Uhrzeit, Datum) vornehmen. Ich kann eine Grafik bearbeiten (z.B. zurechtschneiden). Ich kann die wichtigsten Komponenten eines PCs richtig zusammenschließen. Ich kann meinen Computer vor Viren schützen. Ich weiß, wie man soziale Netzwerke verantwortungsvoll nutzen kann und kann meine Schüler/innen beraten. Ich kann Kalkulationsprogramme (z.B. MS-Excel) anwenden und damit einfache Berechnungen (z.B. Summenwerte)... Ich kenne mich m it Datenschutzbestimmungen aus. Ich kann Informationsquellen auf ihre Zuverlässigkeit prüfen. Ich kann in einem Kalkulationsprogramm Diagramme erstellen. Ich kann Audiodaten aufnehmen, bearbeiten und speichern. Ich kann Netzwerkstrukturen wie das Internet erläutern. Ich weiß, wie Datenbanken organisiert sind. Ich kann einfache Programme in einer geeigneten Entwicklungsumgebung erstellen. Gerhard Brandhofer: Lehr-/Lerntheorien und m ediendidaktisches H andeln Empirische Untersuchung 6,00 C.1 C.2 C.3 C.4 Abbildung 17: Mittelwerte der Subskalen zu CK Wenig überraschend ist dabei, dass die Selbsteinschätzungsfragen zur Subskala C.4 Konzepte mit einem Mittelwert von 2,74 deutlich schlechter bewertet werden als jene der drei anderen Subskalen. Die höchste Bewertung erhalten die Items zur Subskala C.2 Informatiksysteme mit einem Mittelwert von 5,18. 7.4.4 Pädagogische Kenntnisse Der Mittelwert aus allen Antworten der Skala der pädagogischen Kenntnisse (PK), gebildet aus den Items P. 1.1 bis P.2.4, liegt bei 3,79 (Standardabwei chung 1,23), auch dieser Wert ist bei eLSA-Schulen mit 3,75 (SD = 1,12) höher als bei den Neuen Mittelschulen mit 3,6 (SD = 1,25). Bei der Analyse der einzelnen Items ist erkennbar, dass Lernplattformen, die Verwendung interaktiver Elemente sowie die Kommunikation mit den Eltern am schlech testen eingeschätzt werden. 161 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Abbildung 18: Aufstellung der Mittelwerte der Items zu den pädagogischen Kenntnis sen Die Items zur Subskala der Hemmnisse bei der Nutzung digitaler Medien werden mit 4,77 höher bewertet als jene zur Verwendung digitaler Medien im Unterricht (M = 3,56) an sich. 7.4.5 Technische Kenntnisse Die Skala technische Kenntnisse (TK) wurde aus Mittelwerten der Ergebnisse zu den Antworten T .l.l bis T.2.2 gebildet. Dieser Wert beträgt 4,62 (Stan dardabweichung 1,04). Im folgenden Diagramm werden die Mittelwerte zu den einzelnen Items dargestellt. 162 Empirische Untersuchung Abbildung 19: Aufstellung der Mittelwerte der Items zu den technischen Kenntnissen Die beiden Statements zu den Kenntnissen zur Nutzung digitaler Medien im Fach wurden schlechter eingeschätzt als jene zur Nutzung digitaler Medien im Allgemeinen. 7.4.6 Vergleich der Ergebnisse zu CK, PK und TK Der Mittelwert für die Skala der Anwendungskenntnisse liegt mit 4,55 (SD = 1,16), wie auch der Wert für die technischen Kenntnisse mit 4,62 (SD = 1,04), höher als jener zu den pädagogischen Kenntnissen mit einem Mittel wert von 3,79 (SD = 1,23). Die Werte für PK und CK sind an den eLSA Schulen höher als an den Neuen Mittelschulen, jener für TK ist an beiden Schultypen in etwa gleich. Das soll auch das folgende Diagramm darstellen. 163 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Abbildung 20: Vergleich der Mittelwerte der Bereiche CK, TK und PK an eLSA-Schulen und Neuen Mittelschulen Beim Vergleich der Verteilungen der in 0,5-Segmenten verteilten Mittelwerte zu den Skalen CK, TK und PK fällt auf, dass bei CK und TK die Verteilung erheblich nach rechts verschoben ist, während das bei PK nicht der Fall ist. Die Anwendungskenntnisse und technischen Kenntnisse werden höher ein gestuft als die pädagogischen Kenntnisse. Mit Hilfe einer Gegenüberstellung der Verteilungen wird dieser Unterschied deutlich sichtbar. Abbildung 21: Gegenüberstellung der Verteilungen zu CK, TK und PK Den höchsten Mittelwert bei gleichzeitig geringster Standardabweichung und auch das ist in dieser Darstellung gut ersichtlich — hat die Skala TK. 164 Empirische Untersuchung 7.4.7 TPCK und die Unterrichtserfahrung Aufgeschlüsselt nach der Unterrichterfahrung zeigt sich, dass sich die Studie renden und Junglehrer/innen im Bereich der Anwendungskenntnisse besser einschätzen als Lehrende mit längerer Unterrichtserfahrung. Diese Einschät zung trifft allerdings nicht auf die pädagogischen Kenntnisse und die technischen Kenntnisse zu. In folgender Tabelle und dem dazugehörigen Diagramm sind die Mittelwerte in Bezug zu den Jahren an Unterrichtserfah rung dargestellt. CK TK PK 1 4,82 4,70 3,85 2 4,46 4,54 3,68 3 4,54 4,65 3,82 4 4,40 4,58 3/75 5 4,56 4,67 3,89 Tabelle 5: Selbsteinschätzung zu CK, TK und PK im Verhältnis zur Unterrichtserfah rung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Abbildung 22: Selbsteinschätzung zu CK, TK und PK im Verhältnis zur Unterrichtser fahrung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) 165 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Der Wert für die Skala CK liegt in der ersten Kohorte mit 4,82 höher als in den anderen vier Kohorten, während umgekehrt jener für PK in der fünften Kohorte mit 3,89 am höchsten ist. TK ist über alle fünf Kohorten hinweg so gut wie gleich hoch. In keiner der Alterskohorten sind die Werte für PK höher als jene von CK oder TK. Ich habe keine Es ist für mich in Weil ich gerne Die Anzahl und Bedenken, dass ich Ordnung, wenn verstärkt digitale Qualität der Geräte bei der A rbeit am meine Schüler/innen Medien im Unterricht an m einer Schule Com puter etwas im Umgang mit einsetzen will, erm öglicht einen kaputt mache. digitalen Medien m öchte ich dazu abwechslungsreichen kom petenter sind als neueste und gezielten Einsatz ich selbst. Kom petenzen von digitalen erwerben. Inhalten. P.2.1 P.2.2 P.2.3 P.2.4 Abbildung 23: W erte der Items zum Teilkonstrukt Hemmnisse 7.4.8 Die Subskala Hemmnisse aus PK und der Vergleich mit COMA Die Items zum Teilkonstrukt P.2 beziehen sich auf tatsächliche oder ver meintliche Hemmnisse bei der Nutzung digitaler Medien und umfassen die Items P.2.1 bis P.2.4. Die Werte ergeben einen Mittelwert von 4,77 bei einer Standardabweichung von 0,94. Am schlechtesten wurde dabei das Item zur Computerausstattung bewertet (M = 4,36). Das Fragenset COMA aus INCOBI-R kann hier zu Vergleichszwecken heran gezogen werden (Richter et al., 2010). Während bei COMA Items auch negativ formuliert sind, ist das bei diesem Selbsteinschätzungsfragebogen nicht der Fall. Zudem verfügt COMA über eine Skala mit Werten von 0 bis 4, während bei dieser Befragung Werte von 1 bis 6 verwendet wurden. Johannes Zylka wiederum benutzt eine Skala von 1 bis 5. Zu Vergleichszwecken ist folglich eine Neuberechnung vonnöten. Zylka berechnet bei seiner Untersu 166 Empirische Untersuchung chung einen Mittelwert für COMA bei Dozierenden von 4,35, für Studieren de M= 3,81 (Zylka, 2013, S. 95). Das ergäbe auf einer sechsstufigen Skala für Dozierende M = 5,4 und für Studierende M = 4,76. Auch Regine Bachmaier hat das Fragenset COMA im Rahmen der Evaluation eines tutoriell betreuten Selbstlernangebotes verwendet. Bei 386 Untersuchungspersonen errechnet sie einen Mittelwert von 1,01 (SD = 0,70) vor Untersuchungsbeginn. Das ergäbe umgerechnet einen Wert von 2,51 bei einer sechsstufigen Skala. N M (transformiert: sechsstufige Skala) SD (ursprünglich) P.2 6264 4,77 0,94 CO M A bei Zylka (Studierende) 208 5,43 CO M A bei Zylka (D ozierende) 53 4,76 CO M A bei B ach m aier (vor der In terven tion ) 386 3,74 0,70 Tabelle 6: Vergleich der Ergebnisse zu COM A und P.2 (Bachmaier, 2011; Zylka, 2013) t------------------------------------------------- r------------------------------------------ X -----*------------------ r COMAZylka Dozierende I '--------------------------------------------------------------------- ■---------------------------------------------------------------------•-------------------------* Abbildung 24: Vergleich der Ergebnisse zu COM A und P.2 (Bachmaier, 2011; Zylka, 2013) 167 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Somit sind die Werte für COMA von Zylka bei den Studierenden mit jenen von P.2 ident, die der Dozierenden höher, während bei Bachmaiers Untersu chung der Mittelwert niedriger liegt. 7.4.9 Das Konstrukt TPCK und eLEMER Nimmt man die Ergebnisse von der Untersuchung eLEMER des Hungarian Institute for Educational Research and Development zum Vergleich, so ist hier lediglich jener zwischen dem Teilkonstrukt Teachers and Teaching des eLEMER mit dem Konstrukt TPCK sinnvoll. Die anderen Bereiche der ungarischen Untersuchung bilden verstärkt die technische Ausstattungssitua tion an der Schule ab. Oct 2010 Feb 2011 Registered schools 123 733 Analysed schools 93 367 Country average (values 1-4) 2,57 2,54 Learning 2,49 2,46 Teaching 2,57 2,58 Organisational work 2,52 2,41 Infrastructure 2,75 2,72 Tabelle 7: Ergebnisse von eLEMER (Quelle: Hungarian Institute for Educational Research and Development, 2011) Der Mittelwert für den Bereich Teachers and Teaching beträgt bei eLEMER M= 2,57 (TV, SD nicht verfügbar, 733 Schulen) bei einer vierstufigen Skala jener zu TPCK M = 4,36 (sechsstufig, SD - 0,99) (Hungarian Institute for 168 Empirische Untersuchung Educational Research and Development, 2011). Transformiert man den Wert auf eine sechsstufige Skala, ergibt das für M = 3,86. Der Mittelwert für das Fragenset Teachers and Teaching von eLEMER ist somit um 0,5 Punkte niedriger als der Wert für TPCK bei der aktuellen Untersuchung. Bei Betrachtung der detaillierten Ergebnisse zu den einzelnen Items fällt auf, dass bei eLEMER das Statement „Learning materials, schedule, information on attendance and results are available from home for parents, students, teachers“ mit M= 1,68 (transformiert 2,52) zu den am schlechtesten bewerte ten Items gehört. Ebenso zählt bei der vorliegenden Befragung das Item P. 1.5 „Ich nütze Webanwendungen (z.B. Lernplattformen, Web-2.0- Applikationen), um die Eltern besser zu informieren“ mit M = 2,81 zu den am niedrigsten bewerteten Items (der geringste Wert aus dem Teilkonstrukt PK). Die Frage nach internationaler Kooperation mit Hilfe von IKT wurde bei eLEMER mit M = 1,64 (transformiert M = 2,46) ausgewiesen, jene nach Kooperation über die Schule (V.6) hinaus wurde mit M = 3,36 beantwortet. Beide Items zur über die Schule hinausgehenden Kooperation mit Hilfe von IKT gehören zu den Items mit dem niedrigsten Mittelwert, durch deren Formulierung sind diese beiden Items aber nur eingeschränkt vergleichbar. Alle anderen Items entziehen sich einer direkten Vergleichbarkeit. M M (transfor miert: sechsstufige Skala) Learning materials, schedule, information on attendance and results are available from home for parents, students, teachers 1,68 2,52 Ich nütze W ebanw endungen (z.B. Lernplattfor men, W eb-2.o-Applikationen), um die Eltern besser zu informieren. 2,81 International cooperation with ICT (teachers) 1,64 2,46 Ich tausche mich fachlich mit Kolle gen/Kolleginnen an anderen Schulen aus. 3,36 Tabelle 8: Vergleich einzelner Items aus eLEMER mit TPCK 169 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln 7.4.10 Konstruktivistische und behavioristische Sichtweise Von besonderem Interesse sind die Skalen zur lehrtheoretischen Sichtweise der Befragungsteilnehmer/innen. Die Items K .l, K.2 und K.3 implizieren eine eher konstruktivistische Grundhaltung (Lipowsky et al., 2002). Diese wurden insgesamt (N = 6264) mit einem Mittelwert von 4,74 (SD = 0,97) eingestuft. Die Items K.4 und K.5, welche nach Lipowsky et al. eine behavioristische Sichtweise implizieren, wurden mit M = 4,24 (SD = 1,17) niedriger bewertet. Die folgende Übersicht dient zum Vergleich der Ergebnisse der beiden Skalen. Abbildung 25: Vergleich der Skalen konstruktivistische und behavioristische Sichtwei se Setzt man die Mittelwerte der Items zur Skala konstruktivistische Sichtweise in Beziehung zur Unterrichtserfahrung, fällt auf, dass in der zweiten Altersko horte diese Items am niedrigsten beurteilt werden. 170 Empirische Untersuchung K.1, K.2 und K.3 K.4 und K.5 U nterrichtserfah ru n g M SD M SD 1 = 0-10 Jahre 4,77 0,97 4,20 1,22 2 = 11-20 Jahre 4^ 6 1,00 4,17 1,14 3 = 21-30 Jahre 4,79 0,91 4,29 1,10 4 = 31-40 Jahre 4,74 0,92 4,28 1,14 5 = 41 Jahre und mehr 4,79 0,95 4,27 1,17 Tabelle 9: W erte der Skalen konstruktivistische und behavioristische Sichtweise in Relation zur Unterrichtserfahrung (N = 6264) Die Items K.4 und K. 5 werden über die Alterskohorten hinweg gleichwertig eingeschätzt. In der Bewertung der Items gibt es zwischen Lehrern und Lehrerinnen so gut wie keinen Unterschied (M = 4,77 sowie M = 4,74 beziehungsweise M = 4,22 sowie M = 4,26). In der lehrtheoretischen Grund haltung ist zwischen Lehrerinnen und Lehrern folglich keine divergierende Der Vergleich der Werte zu diesen Items in Relation zum Schultyp zeigt, dass die Items zum Behaviorismus sowohl an eLSA-Schulen als auch an den Neuen Mittelschulen gleichwertig eingestuft werden und von Studierenden an den Pädagogischen Hochschulen geringer bewertet werden. Die Skala konstrukti vistische Sichtweise wird an den Neuen Mittelschulen höher bewertet als an den eLSA-Schulen und unverkennbar höher eingestuft von den Studierenden der Pädagogischen Hochschulen. 171 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Schultyp K.1, K.2 und K.3 K.4 und K.5 M SD M SD eLSA-Schulen 4,60 0,95 4,36 1,00 Neue Mittelschulen 4,80 0,90 4,39 1,10 Pädagogische Hochschulen 5,19 0,86 4,02 1,17 sonstige Schulen 4,65 0,88 4,20 1,05 ohne Schulzuordnung 4,76 1,03 4,19 1,25 Tabelle 10: Vergleich der Skalen konstruktivistische und behavioristische Sichtweise in Relation zum Schultyp (N = 6264) Abbildung 26: Boxplot der Skalen konstruktivistische und behavioristische Sichtweise in Relation zum Schultyp (1 = eLSA-Schulen, 2 = Neue Mittelschulen, 3 = Pädagogi sche Hochschulen, 4 = sonstige Schulen, 5 = ohne Schulzuordnung; links: K.4, K.5, rechts: K.1, K.2, K.3) Der Boxplot der beiden Skalen zeigt die Sonderstellung der Studierenden an Pädagogischen Hochschulen in Zusammenhang mit der lehrtheoretischen Sichtweise auf. 7.5 Antworten auf die offene Frage Am Ende des Fragebogens wurde noch eine offene Frage angefügt („In Zusammenhang mit digitalen Medien ist mir besonders wichtig:“). Damit 172 Empirische Untersuchung sollte die Möglichkeit für ein individuelles Feedback gegeben werden. Dieses Kommentarfeld wurde bei 6264 Teilnehmenden von insgesamt 1406 Personen ausgefüllt. Diese Antworten habe ich — entsprechend einer subjekti ven Zuordnung — in mehrere Kategorien eingeteilt, die Verteilung ist in folgender Tabelle dargestellt. K ategorie A nzahl Fortbildungsangebot für Lehrende 84 Förderung offenen Lernens 24 Förderung der Anw endungskenntnisse 8 Kritisch-sinnvolle Nutzung im Unterricht 155 Usability der Software wichtig 102 Effizienzsteigerung durch digitale Medien 6 Förderung der Kreativität 38 Fragen der Sicherheit im Unterricht behandeln 217 Technische Zuverlässigkeit und Verfügbarkeit wichtig 59 Offene Systeme, Open Source 17 Technikkritische Stellungnahm en 40 Selbst auf dem Stand der Technik bleiben 51 Digitale Medien zur Steigerung der Freude am Lernen 30 Digitale Medien in den Gegenständen 12 Andere Aussagen 563 Tabelle 11: Kategorisierung der Antworten auf die offene Frage In die Kategorie Andere Aussagen wurden solche zusammengefasst, die nicht einer anderen Kategorie zuordenbar waren und Aussagen ohne erkennbaren Sehr häufig wurde das Thema Sicherheit in Zusammenhang mit digitalen Medien als relevantes Unterrichtsthema genannt, dabei auch eher unrealisti sche Forderungen wie „absolute Datensicherheit“ (#291). Zur Kategorie der 173 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Fortbildungen wurden verstärkt solche am Schulstandort gewünscht. Die Themen Usability (zum Beispiel #1332: „die einfache Handhabung bzw. selbst erklärende Funktionsweise“) und eine verlässliche sowie verfügbare Technik (#1004 „Zugang für jeden in der Schule. Adäquate Ausstattung der Schule“) wurden ebenfalls sehr häufig angegeben. Technikkritische Antworten gab es auch, hier wurde vor allem der Wert des persönlichen Gesprächs betont und dass man nicht ausschließlich mit digitalen Medien kommunizieren sollte, aber auch die Verbannung technischer Geräte aus dem Unterricht wurde gefordert: „Ich möchte, dass Smartphones und all dieses Zeugs aus dem Unterricht verschwinden!“ (#372). Man solle den Konsumzwang durch die Verwendung digitaler Medien nicht ankurbeln (#539) und zur Sicherstellung, dass die Schüler/innen die Grundlagen beherrschen, wäre ein Pflichtfach Informatik vonnöten (#544). 7.6 Korrelationsanalysen Ziel des folgenden Abschnittes ist es, die in Kapitel 6 erarbeiteten Hypothesen mit Hilfe von Korrelationsanalysen aufgrund der gewonnenen Daten zu bestätigen oder zu widerlegen. 7.6.1 Homogenität und Normalverteilung Zur Überprüfung der aufgestellten Hypothesen sollen in der Folge parametri sche Tests zum Einsatz kommen, da diese eine hohe Leistungsfähigkeit haben. Diese Überprüfungen setzen im Allgemeinen voraus, dass die Stichprobenda ten ein bestimmtes Skalenniveau wie auch eine bestimmte Wahrschein lichkeitsverteilung aufweisen (Albrecht, 1974, S. 106; Bortz & Döring, 2006, S. 218). Bedingung für die Nutzung parametrischer Tests sind also die mathematisch-statistische Voraussetzung der Normalverteilung und die Homogenität der Varianz bei mehreren Gruppen. So gilt es sich hier zuerst der Normalverteilung der Daten zu widmen. Zur Überprüfung der Normalverteilung von Stichproben wird üblicherweise auf den Kolmogorov-Smirnov-Test zurückgegriffen (Albrecht, 1974, S. 108). Da ab einer Stichprobengröße von 30 Personen dieser Test zum einen nicht mehr notwendig ist und zum anderen sehr schnell signifikant wird, ohne dass dies Empirische Untersuchung gleichzeitig von Aussagekraft über die Normalverteilung der Stichprobe wäre, wurde aufgrund der Größe der Stichprobe mit 6264 Personen auf den Kolmogorov-Smirnov-Test verzichtet. Anstelle dessen soll die annähernde Normalverteilung der Werte mit folgendem Diagramm veranschaulicht wer den (Albrecht, 1974, S. 110; Bortz & Döring, 2006, S. 217). Abbildung 27: P-P-Diagramm zu TPCK über die gesamte Befragungsgruppe (N = 6264) Abbildung 28: Häufigkeitsverteilung zu TPCK 175 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Dieses Probability-Probability-Diagramm vergleicht die erwartete kumulative Wahrscheinlichkeit mit der Verteilung der Skala TPCK. Es zeigt, dass dieser Wert für die Gruppe der Befragungsteilnehmer/innen annähernd normalver teilt ist. Es kann aufgrund des Umfangs der Untersuchung von einer Normalverteilung der Werte ausgegangen werden (Bortz & Lienert, 2003, S. 203). Die zweite Voraussetzung ist jene der Varianzhomogenität. Da zur Testung mehrerer Hypothesen nicht auf unterschiedliche Gruppen zurückgegriffen werden muss, kann auf die Überprüfung dieser Voraussetzung für diese Hypothesen verzichtet werden. Für den Vergleich der eLSA-Schulen mit den Neuen Mittelschulen wurde die Homogenität der Varianz überprüft. Da der Levene-Test in diesem Fall jedoch signifikant ist, liegt hier keine Homogenität der Varianz vor. Damit ist eine Voraussetzung für einen parametrischen Test zu dieser Hypothese nicht erfüllt. Der Levene-Test ist auch für die Einteilung in Altersgruppen signifi kant, eine Homogenität der Varianz daher nicht gegeben. Da parametrische Tests auch bei Nichterfüllung nur einer Voraussetzung solide sind, werde ich dennoch einen t-Test durchführen (Bortz & Döring, 2006, S. 494). Zur Absicherung des Ergebnisses werde ich allerdings zusätz lich einen Mann-Whitney-Test berechnen. Der Mann-Whitney-Test kann als Alternative für die einfaktorielle Varianzanalyse bei Verletzung der Normal verteilung und der Varianzhomogenität verwendet werden (Bühner, 2011, S. 278). Schließlich sollen hier noch die Reliabilitätswerte für die Hauptbefragung angeführt werden. 176 Empirische Untersuchung Cronbachs Alpha Anzahl der Items Content Knowledge 0,921 14 Technological Knowledge 0,813 6 Pedagogical Knowledge 0,819 10 Vernetzung (ohne V.2) 0,721 4 Konstruktivismus 0,788 3 Abbildung 29: Reliabilitätswerte Hauptuntersuchung (N = 6264) Die Werte der Hauptbefragung haben sich gegenüber dem Pretest noch verbessert oder sind gleich geblieben. Insofern kann von einer hohen Reliabili tät der Befragung ausgegangen werden. Zusammenfassend steht somit nichts der Verwendung von parametrischen Tests zur Korrelationsanalyse im Wege, zu Vergleichen zwischen eLSA-Schulen und Neuen Mittelschulen sowie der Kohorten zur Unterrichtserfahrung werden aufgrund der fehlenden Varianz homogenität zur Absicherung der Ergebnisse nichtparametrische Tests zum Einsatz kommen. 7.6.2 Zur Repräsentativität: Zufallsstichprobe im Vergleich zur Selbstselektion Im Unterkapitel 7.2.7 wurde die Frage der Repräsentativität bei Fragebögen, die durch Selbstselektion ausgefüllt werden, aufgeworfen. Um die Repräsenta tivität der Studie abzusichern, wurden mehrere Schulen per Zufallsprinzip ausgewählt. An dieser Befragung haben alle Lehrenden der betreffenden Schule teilgenommen. Um dann die Repräsentativität der Gesamtbefragung sicherzustellen, wurden die Ergebnisse der beiden Gruppen verglichen. In keinem der relevanten Kennwerte gibt es einen signifikanten Unterschied zwischen den beiden Gruppen. Es kann daher auch von einer Repräsentativi- 177 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln tat der gesamten Befragung ausgegangen werden. Die folgende Tabelle stellt die Ergebnisse der Signifikanztests dar. Skala Signifikanz Content Knowledge 0,154 Technological Knowledge 0,306 Pedagogical Knowledge 0,344 TPCK 0,343 Vernetzung (ohne V.2) 0,216 Konstruktivistische Sichtweise 0,158 Behavioristische Sichtweise 0,501 Unterrichtserfahrung 0,816 Tabelle 12: Signifikanzwerte zu den Unterschieden zwischen Zufallsstichprobe und Selbstselektion 7.6.3 Lerntheorien und digitale Medien Kapitel 6.2 widmete sich dem Zusammenhang zwischen Lerntheorien und der Verwendung von digitalen Medien im Unterricht. Schließlich wurde folgende Hypothese formuliert: Wenn Lehrende entsprechend konstruktivistischen Lerntheorien den Unterricht gestalten, dann setzen sie häufiger digitale Medien im Unterricht ein. Diese Hypothese soll mit Hilfe eines Korrelations tests überprüft werden. Eine Irrtumswahrscheinlichkeit von maximal 5 % (a) wird dabei vorab festgelegt. Das Ergebnis wird demzufolge als signifikant beurteilt, wenn a < 0,05. Ein sehr signifikantes Ergebnis liegt vor, wenn a < 178 Empirische Untersuchung 0,01, was bedeutet, dass die Irrtumswahrscheinlichkeit geringer oder gleich 1 % wäre, ein hochsignifikantes Ergebnis bei a < 0,001 (Bortz & Döring, 2006; Bortz, 2005; Schnell et al., 2011). Die Skala konstruktivistische Sichtweise korreliert mit der Skala PK, rs = 0,491. Der große Effekt dieser Korrelation ist auf dem Niveau von p < 0,001 hoch signifikant (Bortz, 2005, S. 588). Mit einem Wert knapp unter 0,5 für den Korrelationskoeffizienten kann von einer mittleren Korrelation gesprochen werden (Bortz & Döring, 2006, S. 508; Bühner, 2011, S. 349). Auch die Korrelation zwischen konstruktivistischer Sichtweise und der Skala TPCK ist mittel (rs = 0,493, p < 0,001). Gleichzeitig besteht eine geringe Korrelation zwischen der Skala PK und der Skala behavioristische Sichtweise, rs = 0,184 (p < 0,001). Damit wird Hypothese 1 bestätigt. 7.6.4 Anwendungskenntnisse Die Anwendungskenntnisse der Lehrenden waren Thema des Kapitels 6.3. Es handelt sich hierbei um den Bereich CK aus dem Modell TPCK. Es wird ein Zusammenhang zwischen Anwendungskenntnissen und der Intensität der Nutzung digitaler Medien im Unterricht vermutet, folglich wurde folgende Hypothese (2a) aufgestellt: Der Umfang des Einsatzes von digitalen Medien im Unterricht ist direkt proportional zu den Anwendungskenntnissen der Lehrenden. Auch diese Hypothese wird mit einer Korrelationsanalyse über prüft. Im Bereich der Anwendungskenntnisse wurden auch Statements zu den informatischen Kenntnissen und zum Umgang mit Social Media aufgenom men. Hypothese 2b: Die Kenntnisse im Bereich des informatischen Wissens im engeren Sinne sind im Vergleich zu den anderen Anwendungskenntnissen unterdurchschnittlich. Hypothese 2c: Die Kenntnisse im Umgang mit Social- Web-Plattformen sind im Vergleich zu den anderen Anwendungskenntnissen unterdurchschnittlich. Die Skala CK korreliert mit der Skala PK, rs = 0,650. Der große Effekt dieser Korrelation ist auf dem Niveau von p < 0,001 hoch signifikant. Mit einem Wert größer als 0,5 für den Korrelationskoeffizienten kann von einer hohen Korrelation gesprochen werden (Bortz & Döring, 2006, S. 508; Bühner, 2011, S. 349). Damit ist Hypothese 2a durch die Befragung bestätigt. 179 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln 1,00 2,00 3,00 4,00 5,00 6,00 CK Abbildung 30: Streudiagramm Skala CK in Relation zur Skala PK Zwischen der Skala CK und der Subskala zu den informatischen Kenntnissen C.4 besteht ein signifikanter Unterschied (p < 0,001). Mit r = 0,81 hat dieser Unterschied einen großen Effekt. Der Mittelwert der Subskala C.4 ist mit 2,58 (SD = 1,84) deutlich niedriger als jener der Skala CK mit 4,55 (SD = 1,16). Damit kann auch Hypothese 2b bestätigt werden. Zur Frage der Kenntnisse zum Bereich Social Media wurde die Skala CK mit C.3.8 verglichen. Auch hier besteht ein signifikanter Unterschied (p < 0,001) bei großem Effekt. Die Mittelwerte unterscheiden sich hier allerdings bei weitem nicht so deutlich als zwischen CK und C.4. Für C.3.8 ist M = 4,46 (SD = 1,8). Damit gilt Hypothese 2c als bestätigt. 7.6.5 Die Vernetzung am Schulstandort Dass die Kommunikation und Kooperation am Schulstandort ein Qualitäts kriterium für die Schule an sich ist, wurde in Kapitel 6.4 mit Hilfe verschiedener Literaturquellen untermauert. Dass diese Vernetzung am Schulstandort auch auf den Einsatz digitaler Medien Einfluss hat, wurde mit Hilfe von Hypothese 3 behauptet: Wenn an Schulen die Kooperation zwischen den Lehrenden ausgeprägter ist, so haben diese Schulen Lehrende, 180 Empirische Untersuchung die häufiger digitale Medien im Unterricht einsetzen. Diese Hypothese soll mit Hilfe einer Korrelationsanalyse geprüft werden. Die Skala PK korreliert mit der Skala Vernetzung, rs = 0,647. Der große Effekt dieser Korrelation ist auf dem Niveau von p < 0,001 hoch signifikant. Mit einem Wert größer als 0,5 für den Korrelationskoeffizienten kann von einer großen Korrelation gesprochen werden. Damit ist Hypothese 3 bestätigt. Wie in Kapitel 6.4 ausgeführt, setzt das Projekt eLSA gezielt auf die Förde rung der Vernetzung zwischen den Lehrenden am Schulstandort und über den Schulstandort hinaus. Das bedeutet, dass, wenn dieses Ziel verfolgt wird, zum einen die Items zur Vernetzung an eLSA-Schulen höher bewertet werden könnten als an Neuen Mittelschulen und an den sonstigen Schulen. Zum anderen müsste dann — bezugnehmend auf Hypothese 3 — auch die Skala PK einen höheren Mittelwert an eLSA-Schulen haben. Tatsächlich besteht ein hoch signifikanter Unterschied (p = 0,001) zwischen eLSA-Schulen und den Neuen Mittelschulen. Da bei diesen beiden Gruppen — wie oben ausgeführt — die Homogenität der Varianz nicht gegeben ist, wurde zusätzlich ein Mann- Whitney-U-Test durchgeführt, auch dieser bestätigt einen signifikanten Unterschied, der Effekt ist sehr gering (r = 0,09). Der Mittelwert zur Skala Vernetzung beträgt an eLSA-Schulen 4,08 (SD = 1,11) und an den Neuen Mittelschulen 3,89 (SD = 1,26). Auch im Vergleich von eLSA-Schulen zu den sonstigen Schulen besteht ein signifikanter Unterschied (p = 0,03), der allerdings nicht so deutlich ausfällt wie im Vergleich zu den Neuen Mittelschulen, bei ebenfalls sehr geringem Effekt (r = 0,06). 7.6.6 Der Einfluss des Alters der Lehrenden Hypothese 4a dieser Arbeit lautet: Es besteht kein signifikanter altersspezifi scher Unterschied im Bereich der Anwendungskenntnisse. Allerdings gäbe es dennoch altersspezifische Unterschiede, so Hypothese 4b: Die Bedenken hinsichtlich der Benutzung von digitalen Medien steigen mit dem Alter signifikant an. Die positive Überprüfung von Hypothese 4a würde den Titel eines Beitrags in der Futurezone vom Juni 2014 widerlegen, welcher lautete: „Ältere Lehrer nicht mit Technik vertraut“ (Wimmer, 2014). 181 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Beide Hypothesen werden durch die Daten in dieser Form nicht bestätigt. Beim Vergleich aller Lehrer/innen geteilt in Alterskohorten gibt es zwischen einzelnen Kohorten signifikante Unterschiede, bei anderen nicht. Folgender Raster soll diesen Sachverhalt veranschaulichen. Dabei handelt es sich um die Auswertung der Mehrfachvergleiche nach Bonferroni zur Skala CK in Relation zur Unterrichtserfahrung. CK 1 2 3 4 5 1 - <0,001 <0,001 <0,001 <0,001 2 <0,001 - 1 1 1 3 <0,001 1 - 0,008 1 4 <0,001 1 0,008 - 0,016 5 <0,001 1 1 0,016 - Tabelle 13: Signifikanzen beim Vergleich der Skala CK zwischen den Kohorten an Unterrichtserfahrung nach Bonferroni. Signifikante Unterschiede sind dunkel hinterlegt (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr). Das Bild ist uneinheitlich. Vor allem die Gruppe 1 (0-10 Jahre Unterrichtser fahrung) unterscheidet sich signifikant von den anderen vier Kohorten. Insgesamt ergibt sich bei der Berechnung ein signifikanter Unterschied zwischen den Kohorten {p < 0,001). Die Effektstärken der Unterschiede sind schwach bis mittel (a> = 0,2 zwischen Gruppe 1 und 2). Da bei den einzelnen Gruppen keine Homogenität der Varianz gegeben ist, wurde diese Berechnung auch mit einem nichtparametrischen Test durchge führt. Dieser bestätigt das Bild, welches sich aus der einfaktoriellen ANOVA ergeben hat. 182 Empirische Untersuchung CK 1 2 3 4 5 1 - <0,001 <0,001 <0,001 <0,001 2 <0,001 - 0,665 0,867 0,737 3 <0,001 0665 - 0,016 1 4 <0,001 0,867 0,016 - 0,044 5 <0,001 0,737 1 0,044 - Tabelle 14: Signifikanzen beim Vergleich der Skala CK zwischen den Kohorten an Unterrichtserfahrung nach Tamhane. Signifikante Unterschiede sind dunkel hinterlegt (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr). Die Abweichung der Mittelwerte zwischen den Gruppen ist dennoch nicht sehr hoch. Die größte Differenz besteht zwischen der Gruppe 1 (M = 4,82, SD = 0,92) und der Gruppe 4 [M = 4,39, SD = 1,28) mit einer Differenz von 0,43. Zusätzlich ist kein Trend erkennbar, vielmehr beschreiben die Werte ein langgezogenes W, die Kohorten 2 und 4 schätzen sich in Bezug auf die Anwendungskenntnisse niedriger ein als die Kohorten 1, 3 und 5. 183 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Abbildung 31: Mittelwerte zur Skala CK in Relation zur Unterrichtserfahrung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Abbildung 32: 95% -Konfidenzintervalle zur Skala CK in Relation zur Unterrichtserfah rung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Der Test auf Unterschiede zur Überprüfung der Hypothese 4b auf Basis einer einfaktoriellen ANOVA fällt sehr signifikant aus, F = 4,083 und p = 0,003. Die Effektstärke ist gering (r = 0,09). Dennoch kann die Hypothese nicht dadurch bestätigt werden. Bei Analyse der Mittelwerte lässt sich vielmehr das 184 Empirische Untersuchung Gegenteil der Hypothese ab der Kohorte 2 feststellen. Mit zunehmender Unterrichtserfahrung werden die Hemmnisse zum Einsatz digitaler Medien immer geringer eingeschätzt. Einzig die Kohorte 1 durchbricht diesen Trend. Abbildung 33: Mittelwerte der Skala P.2 in Relation zur Unterrichtserfahrung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Abbildung 34: 95% -Konfidenzintervalle der Skala P.2 in Relation zur Unterrichtserfah rung (1 = 0-10 Jahre; 2 = 11-20 Jahre; 3 = 21-30 Jahre; 4 = 31-40 Jahre; 5 = 41 Jahre und mehr) Eine detaillierte Betrachtung der Ergebnisse lohnt sich. Die Analyse der Einschätzung zu Frage 2.2 („Es ist für mich in Ordnung, wenn meine 185 Gerhard Brandhofer: Lehr-/Lerntheorien und mediendidaktisches Handeln Schüler/innen im Umgang mit digitalen Medien kompetenter sind als ich selbst“) ist hier gewinnbringend. Hier bestätigt sich das Muster der Skala P.2 eindeutig. Auch diese Frage wird in Kohorte 2 am niedrigsten bewertet. Frage 2.1 („Ich habe keine Bedenken, dass ich bei der Arbeit am Computer etwas kaputt mache“) ist in der Kohorte 4 am niedrigsten bewertet (M = 4,96, in Kohorte 1 M = 5,14). Das Item 2.3 („Weil ich gerne verstärkt digitale Medien im Unterricht einsetzen will, möchte ich dazu neueste Kompetenzen erwer ben“) wird — dem Muster entsprechend — in Kohorte 2 am niedrigsten beurteilt (M = 4,74, in Kohorte 3 M = 4,90). Nur Frage 2.4 („Die Anzahl und Qualität der Geräte an meiner Schule ermöglicht einen abwechslungsreichen und gezielten Einsatz von digitalen Inhalten“) wird in Gruppe 1 am niedrigs ten eingeschätzt (M = 4,05), um dann kontinuierlich anzusteigen (M = 4,65 in Kohorte 5). In diesem Zusammenhang ist der Verweis auf andere Studien sinnvoll. Bei Konstruktion der Studie Internet based teaching and learning wurde die Skala Computer Anxiety in den zwei Dimensionen Apprehension und Hands-On gemessen (Suckfüll, Frindte, Köhler, Liebermann & Stauche, 1999). Die erste Dimension besteht aus folgenden Elementen: „Items which concern fear, hesitancy, avoidance, and a lack of confidence about using Computers represent the subscale ,Apprehension‘“ (Suckfüll et al., 1999, S. 30). Der Zwischenbericht zu dieser Untersuchung zeigt auf, dass Internetkompetenz mit beiden Subskalen negativ korreliert (Suckfüll et al., 1999, S. 29). Diese Studie beinhaltet auch die Skala Self-Consciousness, diese besteht aus den drei Subskalen Private Self-Consciousness, Public Self-Consciousness und Social Anxiety. Ein Item der Subskala Public Self-Consciousness ist beispielsweise: „I am concernd about what other people think of me“ (Suckfüll et al., 1999, S. 33). Ein Element der Subskala Private Self-Consciousness lautet zum Beispiel: „I reflect about myself* (Suckfüll et al., 1999, S. 33). Die Auswer tung der Daten ergibt, dass die Private Self-Consciousness mit höherem Alter abnimmt, die Public Self-Consciousness zunimmt (Suckfüll et al., 1999, S. 37). Das Diagramm zu den hemmenden Faktoren ergibt ein ähnliches Bild wie jenes, das aus Studien zu den subjektiv empfundenen Gestaltungsmöglichkei ten von Lehrenden und zur Selbstwirksamkeitserwartung bekannt ist (zum Beispiel Merki, 2012, S. 88). Als Selbstwirksamkeitserwartungen gelten die Überzeugungen von Individuen in Bezug auf deren Kompetenzen und Fähigkeiten und der Umsetzung dieser Kompetenzen in entsprechenden 186 Empirische Untersuchung Lebensbereichen und Lebenssituationen (Amelang & Bartussek, 2006, S. 415). Lehrende, die erst kurz ihre Tätigkeit ausüben, schätzen ihre Gestal tungsspielräume hoch ein, die Einschätzung sinkt im Laufe der Jahre rasch, um dann aber wieder anzusteigen (Merki, 2012, S. 88). Von Bedeutung ist die Selbstwirksamkeitserwartung auch für die Qualität der schulischen Bildung unter anderem deshalb, weil Stajkovic und Luthans bei der Analyse von 144 Einzelstudien einen durchschnittlichen Zusammenhang von Selbstwirksam keitserwartung und Kriterien der Leistung im Beruf herausgefunden haben (Stajkovic & Luthans, 1998). Das bedeutet zusammenfassend, dass zwar Hypothese 4b durch die Daten nicht bestätigt wurde, dass die Ergebnisse aber gerade deswegen verfolgenswerte Parallelen zu anderen Forschungsbereichen aus der Soziologie, Psychologie und Pädagogik ergeben (unter anderem Maltby, Day & Macaskill, 2011, S. 169; Schmitz, 1999). 187

Chapter Preview

References

Zusammenfassung

Der professionelle Umgang mit digitalen Medien sowie deren Einbezug in den Unterricht gehören längst noch nicht zum Standardrepertoire von Lehrenden an Schulen. Bemängelt werden meist unzureichende digitale Kompetenzen und veraltete Wissensstände, kurz: unsere Schulen samt Lehrpersonal sind nicht mehr up to date. Neben dem Einsatz digitaler Medien meint moderner Unterricht aber auch das Lehren innerhalb eines weitgehend konstruktivistischen Lernsettings. In welchem Zusammenhang steht die Nutzung digitaler Medien mit solch einer lerntheoretischen Sichtweise? Gerhard Brandhofer beschäftigt sich umfassend mit der Legitimation digitaler Medien im Schulunterricht. Mithilfe eines eigens erstellten Kompetenzmodells und eines Selbsteinschätzungstests für Lehrende bildet er deren aktuellen Stand an Fertigkeiten und Fähigkeiten ab. Damit legt Brandhofer nicht nur einen wichtigen Grundstein für die zeitgemäße Ausbildung künftiger Lehrerinnen und Lehrer, sondern schafft darüber hinaus klare Zielvorgaben für Fort- und Weiterbildungen bereits im Schuldienst aktiver Lehrkräfte.