Pädagogik & Didaktik (Fach) / Erziehungswissenschaft II - Diagnostik (RWTH Ac 2019) (Lektion)

In dieser Lektion befinden sich 85 Karteikarten

Modul Erziehungswissenschaft II - Teil Diagnostik (RWTH Aachen 2019)

Diese Lektion wurde von ginger149 erstellt.

Lektion lernen

  • 4 Bestandteile der Diagnostik 1. systematischen Sammeln und Aufbereiten von Informationen 2. Aufbereiten: Integration der Daten verschiedener Quellen zu einer Datenbasis 3. Entscheidungen und daraus resultierende Handlungen begründen / kontrollieren / optimieren 4. Regeln / Anleitungen / Algorithmen: Verdichtung der Daten zu einem Urteil
  • 2 Sichtweisen auf pädagogische Diagnostik 1. Pädagogische Diagnostik als Auswuchs der psychologischen Diagnostik 2. Pädagogische Diagnostik als so alt wie pädagogisches Handeln selbst
  • Arbeitsdefinition der pädagogischen Diagnostik in der Vorlesung pädagogische Diagnostik = alle diagnostische Tätigkeiten, die bei einzelnen oder einer Gruppe die Voraussetzungen und Bedingungen von Lehr-Lernprozessen ermitteln sollen
  • Ziele pädagogische Diagnostik nach Jäger 2007 • Zensieren, Bewertung, Einordnen einer Leistung • Empfehlung einer weiterführenden Schulform • Empfehlung von Fördermaßnahmen • Entscheidungen über eine Nichtversetzung • Rat bei der Fächerwahl • Bewertung des eigenen Unterrichtes
  • Spannungsfeld pädagogischer Diagnostik Gesellschaftliche geforderte Qualifikations-   vs.   Optimierung von Lehr-Lernprozessen                                            funktion gesellsch. Konsens über Zielkriterien                         Gruppeninterne, durch Lehrer bestimmte                                                                             Zielkriterien Curriculare Grobziele ausreichend                             Curriculare Feinziele günstig seltene Diagnose                                                    häufige Diagnose  Interesse am Endergebnis                                       Interesse an Prozessen Erfassung überdauernder Merkmale                          Erfassung situationsabhängiger Merkmale geringe Beachtung der Lernbedingungen                  hohe Beachtung der Lernbedingungen
  • 2 Arten pädagogischer Diagnostik 1. Formelle pädagogische Diagnostik 2. Informelle pädagogische Diagnostik
  • Formelle päd. Diagnostik • Psychometrische Intelligenzdiagnostik (IQ) • Diagnostik von Teilleistungsstörungen (z.B. LRS) • Klinische Verhaltensdiagnostik (z.B. ADHS)
  • Informelle bzw. semiformelle Diagnostik • Leistungsbeurteilung (schriftlich/mündlich) • Verhaltensdiagnostik (Sozialverhalten, Arbeitsstil etc.) • Motivations- und Volitionsdiagnostik • Verdachtsdiagnostik von Leistungsauffälligkeiten (sowohl im oberen als auch im unteren Leistungsbereich) • Diagnostik von Verhaltensauffälligkeiten (z.B. Unterrichtsstörungen, Mobbing etc.)
  • KMK-Kompetenzen zur diagnostischen Kompetenz • KMK-Kompetenz 7: LuL diagnostizieren Lernvoraussetzungen und -prozesse von SuS.  • KMK-Kompetenz 8: LuL erfassen die Leistungsentwicklung von SuS und beurteilen Lernen und Leistungen auf der Grundlage transparenter Beurteilungsmaßstäbe
  • Welcher Diagnostik-Typ ist aufgabe von LuL? Informelle bzw. semiformelle pädagogische Diagnostik.
  • 2 Perspektiven auf den Umgang mit Daten • Prognose: Aus Daten Vorhersagen generieren • Retrognose: Aus Daten Aussagen über Vergangenheit ableiten
  • Dafinition: Diagnostischer Prozess Ablauf von Maßnahmen, um unter Anwendung diagnostischer Methoden eine mit diagnostischer Zielsetzung vorgegebene Fragestellung über eine Anzahl von Zwischenschritten so zu bearbeiten, dass für einen Auftraggeber eine Entscheidung(shilfe) geliefert werden kann
  • Diagnostischer Prozess: Von der Fragestellung zur Strategie Fragestellung = Darstellung des Problems seitens des Auftraggebers in Frageform ⇒ Präzisierung der Fragestellung: – eindeutig Formuliert? – Zuständigkeit? – genügend Wissen zur Bearbeitung? – Ethische Umstände? Strategien = aus diagnostischen Daten folgende Konzeption, auf deren Basis der Diagnostiker sein antizipiertes Ziel zu erreichen Versucht
  • Diagnostischer Prozess: Makro- vs- Mikrostrategien Makrostrategien – geben den Rahmen des Prozesses vor – Selektionsstrategien: Auswahl einer Menge von Subjekten (Person / Bedingungen) – Modifikationsstrategien bei Diskrepanz zwischen Ist und Soll Zustand: Modifikation eines Subjektes (Person / Bedingungen) – Mischstrategien Mikrostrategien – Test / Interview / Multiple Choice...
  • Diagnostischer Prozess: Von der Zielsetzung zum Instrument Zielsetzungen = Einsatz diagnostischer Verfahrensweisen derart, dass eine inhaltliche Aussage aus dem Gesamt des diagnostischen Prozesses abgeleitet werden kann. Hypothesen Operationalisierung = Festlegung, wie die in der Hypothese formulierten Begriffe auf der Messebene erfasst werden sollen. Datenerhebung
  • Diagnostischer Prozess: Zielsetzungsdimensionen • singuläre vs. gruppenbezogene Aussagen • Aussagen zum Status vs. zur Veränderung • Aussagen, die sich an an Normen bzw. Kriterien orientieren • Testen vs. Inventarisieren (Bestandsaufnahme) • Messung bzw. Informationen für Behandlung
  • Diagnostischer Prozess: Hypothesentypen • Zusammenhangshypothesen • Unterschiedshypothesen • Veränderungshypothesen • Einzelfallhypothesen
  • Diagnostischer Prozess: Operationalisierung • Überwindung des Überbrückungsproblems • Testverfahren, Interview, Verhaltensbeobachtung, ...
  • Diagnostischer Prozess: Datenerhebung • Planung • Durchführung• Auswertung
  • Trait-Modell der Psychodiagnostik • Trait ∼ Verhaltenszug • State ∼ aktueller Zustand
  • Diagnostischer Prozess: Ergebnisbewertung Datenintegration = Verdichtung der Daten zur Prognose oder Retrognose Urteilsbildung Gutachten = Das Gutachten ist Antwort eines Experten auf Fragen, zu denen er aufgrund seines Fachwissens, des aktuellen Forschungsstandes und seiner Erfahrung Stellung nimmt.
  • The best predictor for... Sukzessionsgesetz: ...future behavior is past behavior.
  • Diagnostischer Prozess: Urteilsbildungstypen • klinische Urteilsbildung: intuitives Urteil ohne explizite Regeln • statistische Urteilsbildung:     – statistische Modelle: D = F[f1(a1),f2(a2), ... ,fn(an)]     – Prozessmodelle     – Heuristiken
  • Diagnostischer Prozess: Rahmenbedingungen • Ethik: Bedingt den gesamten Prozess • Recht: Bedingt besonders den Teil bis inkl. zur Datenerhebung, aber z.B. auch bei der Veröffentlichung • Kompetenz
  • Definitionen: Messung 1. = Zuordnung eines „numerischen Relativs“ zu einem empirischen Relativ 2. = die Zuordnung von Zahlen zu Objekten
  • 3 Eigenschaften von Messungen • Messwerte in Beziehung • Messung eines Attributes eines Objektes, nicht des Objektes selbst • Messung als Verdichtung
  • 3 Skalenniveaus + Kennwerte • Nominalskala: Unterscheidungen, keine Bewertung, kein Rang • Ordinalskalen: Merkmale in Rangordnungen ⇒ Kennwerte Modus und Median • Metrische Skalen (Intervall-, Verhältnis-, Absolutskala): Bestimmbarkeit von Skalenabständen und Rangunterschieden ⇒ Kennwerte Mittelwerte, Varianzen:
  • 3 Axiome der klassischen Testtheorie 1. Jeder Testwert X ist zusammengesetzte aus einem wahren Merkmalsanteil T und einem zufälligen Merkmalsanteil S:                                         X = T +S2. Der Erwartungswert des Fehlers ist 0:                                          E(S)=0. 3. Der Messfehler ist mit dem wahren Wert unkorreliert:                                          ρ(T,S)=0 ⇒ E(T)=E(X)
  • Definition: Objektivität = Grad, in dem die Ergebnisse einer Messung unabhängig von den Untersuchern ist.
  • 3 Dimensionen der Objektivität Durchführungsobjektivität, Auswertungsobjektivität, Interpretationsobjektivität
  • Maßnahmen zur Erhöhung der Objektivität Kenntnis der Faktoren, Standardisierung, Doppelprüfung
  • Definition: Reliabilität = (Zuverlässigkeit) Grad der Genauigkeit einer Messung „Wie gut misst ein Test das, was er misst?“ ⇒ Werte unabhängig vom Zeitpunkt der Messung
  • Varianz und Reliabilität Varianzaufklärung: Anteil der Varianz in einem Test, der auf die „wahre Varianz“ im wahren Wert zurückzuführen ist: Rel= σT 2  / σX 2 
  • Dimensionen der Reliabilität Wiederholungsreliabilität, Paralleltestreliabilität, Split-half-Reliabilität, Konsistenzanalyse (Itemtests → Cronbach-α)
  • Maßnahmen zur Erhöhung der Reliabilität Konsistenzanalyse, Erhöhung der Itemanzahl, Voraussetzung ist Objektivität
  • Definition: Validität = (Gültigkeit) das Ausmaß, mit dem ein Messinstrumen tatsächlich das misst, was es messen soll.
  • 4 Dimensionen der Validität Inhaltsvalidität: Der Test repräsentiert das zu erfassende Merkmal    --> Validierung durch Experten Konstruktvalidität: Der Test erfasst das theoretisches Konstrukt (z.B. Angst)    --> Validierung durch theoretische Überlegungen Empirische Validität / Kriteriumsvalidität: Der Test korreliert mit Außenkriterien (anderen Tests, Beobachtungen) Vorhersagevalidität
  • Zusammenhang zwischen den drei Hauptgütekriterien Objektivität > Reliablilität > Validität
  • Nebengütekriterien • Normierung • Vergleichbarkeit • Ökonomie • Nützlichkeit • Zumutbarkeit • Unverfälschbarkeit • Testfairness
  • Fehler erster und zweiter Art + Sensitivität und Spezifität • Fehler erster Art: α-Fehler: falsch positive Zuordnung (H0 wird fälschlicherweise abgelehnt) • Fehler zweiter Art: β-Fehler: falsch negative Zuordnung (H0 wird fälschlicherweise nicht verworfen) • Sensitivität: Anteil wahrer Positiver an tatsächlich Positiven • Spezifität: Anteil wahrer Negativer an tatsächlich Negativen
  • Gründe für die Wahl schriftlicher Prüfungen • Hohe Unabhängigkeit zwischen Prüfer und Prüfling      ⇒ (hoffentlich) Objektivität • Vergleichbarkeit • Transparenz • Justiziabilität
  • Konstruktion schriftlicher Aufgaben Themenstellung, UmsetzunginAufgaben, Erprobung,Vorgabe, Leistungsvergleich, Bewertung
  • Problematik von Aufsätzen + Lösungsansatz Schlechte Beurteilerobjektivität und viele externe Einflüsse Verbesserung: Analytische Aufsatzbeurteilung ∼ Erwartungshorizont
  • Sind Mathematiknoten objektiver als andere Fächer? Lt. Vorlesung: Nein
  • Zentrale Fragen der Hauptgütekriterien • Objektivität: Kam der Testwert aufgrund vergleichbarer, kontrollierter Umstände zustande? • Reliabilität: Kam der Testwert durch zufällige Einflüsse oder aufgrund einer überdauernden Fähigkeit des Schülers zustande? • Validität: (z.B.) Sagt der Testwert etwas über die Rechtschreibfähigkeit des Schülers aus?
  • Definitionen: Test • Lienert & Raatz: Ein Test ist ein wissenschaftliches Routineverfahren zur Untersuchung eines oder mehrerer empirisch abgrenzbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst quantitativen Aussage über den relativen Grad der Merkmalsausprägung. • Ingenkamp & Lissmann: Tests sind Verfahren der pädagogischen Diagnostik, mit deren Hilfe eine Verhaltensstichprobe, die Voraussetzungen für oder Ergebnisse von Lernprozessen repräsentieren soll, möglichst vergleichbar, objektiv, zuverlässig und gültig gemessen und durch Lehrer oder Erzieher ausgewertet, interpretiert und für ihr pädagogisches Handeln nutzbar gemacht werden kann.
  • Stichproben bei Tests • Itemstichproben: möglichst repräsentant • Situationsstichproben: Zeitpunkt, Raum, Testleiter, Testübung, Motivation, Testangst, ...     ⇒ Forderung nach Bedingungskonstanz • Personenstichproben: Stichprobe aus Population anhand derer Gütekriterien des Tests bestimmt werden
  • Unterschiede zwischen Experimenten und Tests • Beim Experiment wird die unabhängige Variable manipuliert und die Effekte untersucht.⇒ Bei einem Test werden die Items als unabhängige Variable aufgefasst. • Beim Experiment werden Störvariablen kontrolliert. ⇒ Beim Test wird Standardisiert.
  • Testtypen • psychometrisch vs. projektiv (keine numerischen Ergebnisse) • homogen (redundante Aufgaben) vs. heterogen (unterschiedliche Aufgaben) • Leistungstest vs. Persönlichkeitstests • speed vs. power • kulturfrei vs. kulturgebunden • normorientiert vs. kriteriumsorientiert • informell vs. formelle • allgemein vs. speziell
  • Ablauf einer Testkonstruktion • Theorie • Operationalisierung • Item-Konstruktion • Qualitative Vorstudie • Item-Revision • Quantitative Studie • Gütekriterien