Diagnostik und Evaluation (Fach) / Evaluationsforschung (Lektion)
In dieser Lektion befinden sich 42 Karteikarten
...
Diese Lektion wurde von s1mamaeh erstellt.
Diese Lektion ist leider nicht zum lernen freigegeben.
- Was sind die Grundlagen von Evaluation? EvaluationEvaluation allgemein: Bewertung von Ergebnis und Prozess; ->keine systematischen Verfahren notwendigWissenschaftliche Evaluation: empirisch gestützte Evaluation mit wissenschaftlichen Methoden; KGEvaluationsforschungBewertung eines Gegenstands nach zuvor festgelegten Zielen und explizit auf den Sachverhalt bezogenen Kriterien unter Zuhilfenahme von sozialwissenschaftlichen Methoden durch qualifizierte Personen.Hypothesen geleitet;EvaluationsobjektGegenstand der Evaluation, der bewertet werden soll, z. B.Projekt: PISAPolitik: Arbeitsmarktreform
- Definiere Evaluationsforschung nach Scriven, Rossi & Freeman und Wottawa & Thierau! Scriven (1991)•Evaluationsforschung ist…Wissenschaftlich fundiertEmpirischHypothesengeleitet•Evaluationsforschung beinhaltet die systematische Anwendung von sozialwissenschaftlichen Forschungsmethoden Rossi & Freeman (1993)•Schließen sich Scriven (1991) an, werden aber noch etwas präziser:•Systematische Anwendung sozialwissenschaftlicher Forschungsmethoden zur Bewertung…Des Konzeptes,Des UntersuchungsplansDer ImplementierungUnd der Wirksamkeit sozialer Interventionsprogramme Wottawa & Thierau (1984)•Betrachten drei Aspekte, die bisher noch nicht genannt wurden:•Ziel-und zweckorientiertEs geht um die Explikation der Ziele»Was ist das Ziel? Wozu wird die Evaluation durchgeführt?•Überprüfung und Verbesserung von praktischen Maßnahmen……sowie Entscheidungen über praktische Maßnahmen•Evaluationsmaßnahmen sollen dem aktuellen Stand der wissenschaftlichen Forschung angepasst sein
- Von welchem Bereichen kann Evaluation abgegrenzt werden? Grundlagenforschung•Ableitung von nomologischenAussagenEs werden Anforderungen an die Theoriegestellt»Erkenntnisinteresse, ob Aussagen (die für eine ganze Population gelten sollen) wahr oder falsch sind»Z.B. Lerngesetze (Klassische Konditionierung)Steigt die Häufigkeit von Verhalten, wenn es belohnt wird? Evaluation•Ableitung von technologischen AussagenEs werden Anforderungen an die Theorie unddie Praxisgestellt»Hat eine Aussage sich bewährt?»Z.B. kann die Erkenntnis aus der Theorie (KK) technisch so umgesetzt werden, dass sie in der Praxis auch tatsächlich funktioniert?•Effizienz der EvaluationKosten/Nutzen-Überlegungen! QualitätsmanagementUrsprung in der WirtschaftÜbereinstimmende Zielsetzungen mit EvaluationsforschungInternational festgelegte Anforderungen (z. B. ISO 9000-Norm)Bewertungsprozess = AkkreditierungMonitoringRegelmäßige Überwachung und Begleitung der Durchführung einer Maßnahmekontinuierliche Aktivitäten erforderlichWissenschaftliche Fundierung spielt untergeordnete Rolle Qualitätsmanagement / MonitoringErfordern kontinuierliche AktivitätenWissenschaftliche Fundierung hat keinezentrale Rolle•EvaluationWird eher punktuell eingesetzt (keine kontinuierliche Aktivität)Wissenschaftliche Fundierung spielt eine zentraleRolle!
- Nach welchem Aspekten können Evaluationen eingeteilt werden? 1.Einteilung nach dem Zeitpunktder Evaluation2.Einteilung nach der Rolle des Evaluators3.SonstigeEinteilungsaspekte
- Beschreibe die Einteilung nach dem Zeitpunkt der Evaluation. Vor der Erprobung• Vor der Erprobung eines Programms sollte eine Evaluation der Programmkonzeptionerfolgen• Antizipatorische oder prospektive EvaluationAbschätzung der Realisierbarkeit eines Programms sowie möglicher NebeneffekteVor der Erprobung sind 2 Aspekte wichtig: 1.Bedarfsklärung Ist eine Intervention überhaupt notwendig? / Ist Bedarf gegeben?Bedarf = soziale Konstruktion•Feststellung des Bedarfs z.B.anhand normorientierter Vergleichsprozesse (soziale, ideale, reale Norm) -> anhand dieser Vergleiche kann dann begründet werden, ob Bedarf gegeben ist •Bedarfsanalysemit den Bestimmstücken:−Definition des ProblemsWo besteht das Problem? (Lokalisation)Seit wann besteht das Problem? (Dauer)Wie stark ist das Problem ausgeprägt? (Intensität)Wer ist von dem Problem betroffen? (Verteilung)−Definition der ZielgruppeWelche Einheit? (Sozialstrukturelle, räumliche Einheiten? Bestimmte Berufsgruppen?)Spezifität der Zielgruppe? Universell (für alle), indiziert (wenn Problem vorliegt) oder selektiv (nur für Risikogruppen)?Welche Selektionskriterien sollen/können verwendet werden?−Definition und Bewertung des ZielsOperationalisierung des Ziels (soll nachher gut messbar sein)Definition von Kriterien der ZielerreichungIn dieser Phase spricht man von proaktiver, klärender Evaluation! 2.Konzeptionsanalyse Wie sollte die Intervention beschaffen sein?Konzeptionsanalyse mit den Bestimmungsstücken>Bedarfsorientierung Sind die Maßnahmen tatsächlich dem Bedarf angepasst?>Bewertung des Wirkmodells Aspekte, die bei der Beurteilung des Wirkmodells berücksichtigt werden sollen sind z.B.:Sind die Ziele der Maßnahme eindeutig definiert und operationalisiert?>Prüfung der konzeptuellen Hypothesen>Anpassung derMaßnahme an Bedürfnisse der Zielgruppepräformativ -entwickelnd Während der ErprobungFormative EvaluationBeschreibung und Bewertung der Programmimplementation, Zielsetzungen und Umsetzungen; fortlaufende Evaluation, ggf. Modifikation/Elaboration der Programmkonzeption, qualitativ angelegtformativ -gestaltend Während der DurchführungFormative EvaluationEvaluation der Programmdurchführung, Implementations-und Begleitforschung, Prozessevaluation; Rückmeldungen zur Optimierung des Programms, qantitativ angelegtformativ -gestaltend Nach der DurchführungSummative Evaluation • Verschiedene Arten summativer EvaluationenEvaluation der Programmwirksamkeit»Ergebnis-oder ErfolgsevaluationEvaluation der Programmeffizienz»Kosten-Nutzen-Analysen»Kosten-Effektivitäts-AnalysenImpact-Evaluation»Bewertung der nachhaltigen Effekte von Programmensummativ-bilanzierend Mit den Evaluationsstrategien verbinden sich unterschiedliche Ziele
- Wie ist die Einteilung nach der Rolle des Evaluators? Selbstevaluation•Mitglieder der Institution bewerten sich bzw. ihre Maßnahme selbstFremdevaluation•Die Bewertung findet durch Dritte, nicht direkt an der Maßnahme Beteiligte stattDie Evaluatoren kommen aber aus derselben InstitutionBeispiel:»Evaluation der Lehrveranstaltungen an der Universität TrierEvaluatoren kommen z.B. aus dem Stab der Universität (sind also nicht selbst in die Lehre involviert) Interne Evaluation•Können sowohl Selbst-als auch Fremdevaluationen seinEvaluatoren können entweder selbst an der Maßnahme beteiligt sein……oder nicht beteiligt sein, aber aus derselben Institution kommen•Die Evaluationszielewerden von der Organisation selbst bestimmt Externe Evaluation• Bewertung durch unabhängigeExpertenEvaluatoren sind nicht an der Maßnahme beteiligt …… und kommen nicht aus derselben Institution • Die Evaluationsziele werden von einerübergeordneten Einrichtung/Behörde vorgegebenDie Vorteile der internen Evaluation sind die Nachteile der externen Evaluation und umgekehrt!
- Nenne Vor- und Nachteile, die sich bei der Rolle des Evaluators ergeben. Vorteile der internen Evaluation•Vertrautheit der Evaluatoren mit dem Evaluationsgegenstand•Ökonomie•CommitmentNachteile der externen Evaluation•Keine Vertrautheit der Evaluatoren mit dem Evaluationsgegenstand•Geringe Ökonomie•WenigCommitmentNachteile der internen Evaluation•Gefahr der Parteilichkeit•Gefahr von Urteilsverfälschungen•Evtl. fehlende methodische ExpertiseVorteile der externen Evaluation•Keine Parteilichkeit•Geringe Gefahr von Urteilsverfälschungen•Hohe methodische Expertise
- Welche Rolle spielt der Evaluator? Werte distanziert nach CampbellEvaluator als völlig objektiver, naturwissenschaftlich ausgerichteter ForscherEinziges Anliegen des Evaluators ist es, bestimmte Hypothesen zu prüfen und zu kausalen Schlussfolgerungen zu kommenDer Evaluator steht der Sache/den Betroffenen wertneutral gegenüber (= Werte distanziert) Werte relativierend nach CronbachCampbells Sicht des Evaluators als rein naturwissenschaftlicher Forscher greift zu kurz!»So einfach ist es leider nicht der Evaluator trägt Verantwortung und hat gewisse PflichtenEvaluator hat die Pflicht, die Verantwortungs-/Entscheidungsträger auf mögliche Schwächen und Fehlentwicklungen hinzuweisen (= Werte relativierend) Werte priorisierend nach ChenDer Evaluator muss als Mediator zwischen den Parteien wirken und Prioritäten setzenEvaluator versucht zwischen Interessen zu vermitteln und einen Konsens herzustellen (= Werte priorisierend)
- Was sind sonstige Einteilungsaspekte der Evaluation? RahmenbedingungenEvaluation im Feld vs. Laborparteiliche (selbst involviert) vs. überparteiliche Evaluation (neutrale Instanzen)offene (keine konkrete/flexible Zielsetzung) vs. geschlossene (vorab def./unveränd. Zielsetzung) Evaluationvertrauliche (nur für Auftraggeber) vs. öffentliche (für die Öffentlichkeit) EvaluationEvaluationsmodellepraxisorientierte (konketes Projekt) Evaluationentwicklungsorientierte (Rückmeldung zur Optimierung der Maßnahme) (formative)Evaluationtheorieorientierte (Güte/Bewährung verschiedener Theorien bewertet) EvaluationAusrichtung der EvaluationMakro- (Gesamtbewertung eines Eva.gegenstands) vs. Mikroevaluation (einzelne Aspekte eines E.Gegenst.)Programmevaluation (Planung unterstützen, Wirkung analysieren, Erfolgskriterien identifizieren)Input- (Eigenschaften bestimmer Ressourcen für eine Maßnahme) vs. Outputevaluation (Ergebniseval./summativ)Complianceevaluation (Verhalten von Betroffenen im Kontext einer Intervention)Durchführungsmodiintrinsisch (theoriebezogene Konzepte) vs. extrinsisch (Analyse der Effekte auf die betroffene Person)intern vs. externsummativvs. formativvergleichend vs. nicht vergleichend (nur eine Maßnahme evaluieren)Metaevaluationsummative Metaevaluation (Ergebnisse mehrerer Einzelstudien für Globalaussage)Programm-Design-Evaluation (Erfahrungszusammenfassung zur Verbesserung zukünftiger Durchführung)
- Was sind die Standards von Evaluation? NÜTZLICHKEITDie Nützlichkeitsstandards sollen sicherstellen, dass die Evaluation sich an den geklärten Evaluationszwecken sowie am Informationsbedarf der vorgesehenen Nutzer und Nutzerinnen ausrichtetN 1 Identifizierung der Beteiligten und BetroffenenDie am Evaluationsgeschehen Beteiligten oder von ihm Betroffenen sollen identifiziert werden, damit deren Interessen geklärt und so weit wie möglich berücksichtigt werden können.N 2 Klärung der EvaluationszweckeEs soll deutlich bestimmt sein, welche Zwecke mit der Evaluation verfolgt werden, so dass die Beteiligten und Betroffenen Position dazu beziehen können und das Evaluationsteam einen klaren Arbeitsauftrag verfolgen kann.N 3 Glaubwürdigkeit und Kompetenz des Evaluators/ der EvaluatorinWer Evaluationen durchführt, soll persönlich glaubwürdig sowie methodisch und fachlich kompetent sein, damit bei den Evaluationsergebnissen ein Höchstmaß an Glaubwürdigkeit und Akzeptanz erreicht wird. N 4 Auswahl und Umfang der InformationenAuswahl und Umfang der erfassten Informationen sollen die Behandlung der zu untersuchenden Fragestellung zum Evaluationsgegenstand ermöglichen und Gleichzeitig den Informationsbedarf des Auftraggebers und anderer Adressaten und Adressatinnen berücksichtigen.N 5 Transparenz von WertenDie Perspektiven und Annahmen der Beteiligten und Betroffenen, auf denen die Evaluation und die Interpretation der Ergebnisse beruhen, soll so beschrieben werden, dass die Grundlagen der Bewertungen klar ersichtlich sindN 6 Vollständigkeit und Klarheit der BerichterstattungEvaluationsberichte sollen alle wesentlichen Informationen zur Verfügung stellen, leicht zu verstehen und nachvollziehbar seinN 7 Rechtzeitigkeit der EvaluationEvaluationsvorhaben sollen so rechtzeitig begonnen und abgeschlossen werden, dass ihre Ergebnisse in anstehenden Entscheidungsprozessen bzw. Verbesserungsprozessen einfließen könnenN 8 Nutzung und Nutzen der EvaluationPlanung, Durchführung und Berichterstattung einer Evaluation sollen Beteiligte und Betroffene dazu ermuntern, die Evaluation aufmerksam zur Kenntnis zu nehmen und ihre Ergebnisse zu nutzen. DURCHFÜHRBARKEITDie Durchführbarkeitsstandards sollen sicherstellen, dass eine Evaluation realistisch, gutdurchdacht, diplomatisch und kostenbewusst geplant und ausgeführt wirdD 1 Angemessene VerfahrenEvaluationsverfahren, einschließlich der Verfahren zur Beschaffung notwendiger Informationen, sollen so gewählt werden, dass Belastungen des Evaluationsgegenstandes bzw. der Beteiligten und Betroffenen in einem angemessenen Verhältnis zum erwarteten Nutzen der Evaluation stehen.D 2 Diplomatisches VorgehenEvaluationen sollen so geplant und durchgeführt werden, dass möglichst hohe Akzeptanz der verschiedenen Beteiligten und Betroffenen in Bezug auf Vorgehen und Ergebnisse der Evaluation erreicht werden kann.D 3 Effizienz von EvaluationDer Aufwand für Evaluation soll in einem angemessenen Verhältnis zum Nutzen der Evaluation stehen. FAIRNESSDie Fairnessstandards sollen sicherstellen, dass in einer Evaluation respektvoll und fair mit den betroffenen Personen und Gruppen umgegangen wird.F 1 Formale VereinbarungenDie Pflichten der Vertragsparteien einer Evaluation (was, wie, von wem, wann getan werden soll) sollen schriftlich festgehalten werden, damit die Parteien verpflichtet sind, alle Bedingungen dieser Vereinbarung zu erfüllen oder aber diese neu auszuhandeln.F 2 Schutz individueller RechteEvaluationen sollen so geplant und durchgeführt werden, dass Sicherheit, Würde und Rechte der in eine Evaluation einbezogenen Personen geschützt sind.F 3 Vollständige und faire ÜberprüfungEvaluationen sollen die Stärken und die Schwächen des Evaluationsgegenstandes möglichst vollständig und fair überprüfen und darstellen, so dass die Stärken weiter ausgebaut und die Schwachpunkte behandelt werden können und die Rechte der in eine Evaluation einbezogenen Personen geschützt sind. F 4 Unparteiische Durchführung und BerichterstattungDie Evaluation soll unterschiedliche Sichtweisen von Beteiligten und Betroffenen auf Gegenstand und Ergebnisse der Evaluation in Rechnung stellen. Berichte sollen ebenso wie der gesamte Evaluationsprozess die unparteiische Position des Evaluationsteams erkennen lassen. Bewertungen sollen fair und möglichst frei von persönlichen Gefühlen getroffen werden.F 5 Offenlegung der ErgebnisseDie Evaluationsergebnisse sollen allen Beteiligten und Betroffenen soweit wie möglich zugänglich gemacht werden. GENAUIGKEITDie Genauigkeitsstandards sollen sicherstellen, dass eine Evaluation gültige Informationen und Ergebnisse zu dem jeweiligen Evaluationsgegenstand und den Evaluationsfragestellungen hervor bringt und vermittelt.G 1 Beschreibung des EvaluationsgegenstandesDer Evaluationsgegenstand soll klar und genau beschrieben und dokumentiert werden, so dass er eindeutig identifiziert und so genau wie möglich zugänglich gemacht werden kann.G 2 KontextanalyseDer Kontext des Evaluationsgegenstandes soll ausreichend detailliert untersucht und analysiert werden.G 3 Beschreibung von Zwecken und VorgehenGegenstand, Zwecke, Fragestellungen und Vorgehen der Evaluation, einschließlich der angewandten Methoden, sollen genau dokumentiert und beschreiben werden, so dass sie identifiziert und eingeschätzt werden können.. G 4 Angabe von InformationsquellenDie im Rahmen einer Evaluation genutzten Informationsquellen sollen hinreichend genau dokumentiert werden, damit die Verlässlichkeit und Angemessenheit der Information eingeschätzt werden kann.G 5 Valide und reliableInformationenDie Verfahren zur Gewinnung von Daten sollen so gewählt oder entwickelt und dann eingesetzt werden, dass die Zuverlässigkeit der gewonnenen Daten und ihre Gültigkeit bezogen auf die Beantwortung der Evaluationsfragestellungen nach fachlichen Maßstäben sichergestellt sind. Die fachlichen Maßstäbe sollen sich an den Gütekriterien quantitativer und qualitativer Sozialforschung orientieren.G 6 Systematische FehlerprüfungDie in einer Evaluation gesammelten, aufbereiteten, analysierten und präsentierten Informationen sollen systematisch auf Fehler geprüft werden.G 7 Analyse qualitativer und quantitativer InformationenQualitative und quantitative Informationen einer Evaluation sollen nach fachlichen Maßstäben angemessen und systematisch analysiert werden, damit die Fragestellungen der Evaluation effektiv beantwortet werden können.G 8 Begründete SchlussfolgerungenDie in einer Evaluation gezogenen Folgerungen sollen ausdrücklich begründet werden, damit die Adressatinnen und Adressaten diese einschätzen können.G 9 Meta-EvaluationUm Meta-Evaluationen zu ermöglichen, sollen Evaluationen in geeigneter Form dokumentiert und archiviert werden.
- Was sind die Funktionen von Evaluation? Bewertung von Evaluationsgegenständen ohne klare ZielsetzungUmfassende Informationssammlungaufgrund der unklaren Zielsetzung sind Widerstände bei den Stakeholdern wahrscheinlich „Was leistet eigentlich die Personalabteilung der Universität Trier?“Entscheidungshilfe Durch die Evaluation sollen belastbare Informationen erbracht werden, ob»Eine Maßnahme weiter durchgeführt werden sollte»Oder ob eine Maßnahme eingestellt werden sollte, weil sie die gewünschte Wirkung nicht erzieltOptimierungsgrundlagei.d.R. formativ, da weder sämtliche Aspekte des Gegenstandes noch die vorhandenen Gestaltungsmöglichkeiten im Vorfeld bekannt sindQualitative DatenIn enger Kooperation mit den verschiedenen Interessensgruppen werden Daten erhoben, die Informationen über Problembereiche und Optimierungsmöglichkeiten liefernStrategisches Instrument ->Nutzung der Evaluation zur Leistungs-und Motivationssteigerung der Mitarbeiter»u. a. durch das Bewusstsein wahrgenommen zu werden»Oder Mitarbeiter sind motivierter bessere Leistungen zu erbringen, weil sie sehen, dass andere Abteilungen das auch schaffen->Durchsetzungshilfe für Entscheidungenz.B. mehr Geld von Leistungsträgern->Ritualisierte Funktionz.B. Durchführung zur Erfüllung gesetzlicher Vorschriften
- Beschreibe das Vier-Ebenen-Modell nach Kirkpatrick mit Beispiel. Die 4 Ebenen sind hierarchisch zu verstehenMit höherer Ebene steigt Aufwand und Komplexität der Evaluation……aber auch Informations-und Lerngewinn! Reaction->ReaktionsebeneErfassung der Akzeptanz einer Maßnahme/eines Programms (Zufriedenheit) Beispiel:• Akzeptanz der Maßnahme & Zufriedenheit erfassenZ.B. über Drop-Out-Rate oder BefragungLearning->LernebeneErfassung des Ausmaßes, in dem Teilnehmer als direkte Folge der Teilnehme an einer Maßnahme ihre Fertigkeiten erweitert haben, Wissen gewonnen haben Beispiel:Fühlen die Eltern sich nach dem Training kompetenter/ sind sie kompetenter geworden?->Befragungen, ob sie sich kompetenter fühlen->Rollenspiele (VB über Lernzuwachs)Behaviour->HandlungsebeneErfassung des Transfers des Gelernten auf Alltagssituationen •Beispiel:Transfer in den Alltag->Selbstbericht / Fremdbericht->HausbesucheResults->ErfolgsebeneErfassung der Veränderungen auf Organisations-bzw. Systemebene->Return on Investment (ROI; von Schenkel ergänzt)Verhältnis zwischen betrieblichem Aufwand von Weiterbildung (Programmkosten) und dessen Ertrag (Programmnutzen) Beispiel: Veränderung der familiären Situation (Familie = System)Alltag läuft jetzt z.B. stressfreierFamilie kann sich besser strukturierenNegativ: Oma fühlt sich nicht mehr gebraucht
- Zähle die Modelle der Evaluation auf. Ergebnisorientierte Modelle ->Zielerreichungsmodelle ->Wirksamkeitsmodelle Prozessmodelle Nutzenmodelle ->Ökonomische Nutzenmodelle ->Stakeholder-Modelle Bewertungsorientiere Modelle Programmorientierte Modelle
- Beschreibe das ergebnisorientierte Modell. Allgemein:• Ergebnis einer Maßnahme steht im Mittelpunkt (summative Evaluation)Beispiel: Elterntraining»Hat das Elterntraining dazu geführt, dass Eltern Erziehungskompetenzen aufbauen konnten?Praktizieren die Eltern nach dem Training im Alltag einen stärker lösungsorientierten Ansatz? • Annahme: objektive Messbarkeit der EvaluationsresultateOb die Eltern Erziehungskompetenzen aufbauen konnten ist objektiv messbar!»Z.B. durch Prä-/Post-Messungen 1. Zielerreichungsmodelle•Erfassung der Zielerreichung, unabhängigvom wissenschaftlichen Nachweis über deren ursächlichen Zusammenhang mit dem ProgrammDas Wirkgefüge interessiert nicht!•Auch als objective-based-evaluation oder Effekt-Evaluation bezeichnet•Kriterienorientierte MessungMaßstab für (Miss-)Erfolg ist der Übereinstimmungsgrad zwischen den Programmresultaten und den zuvor definierten Zielkriterien•Evaluationen auf Basis von Zielerreichungsmodellen sind z.B. im Bereich Bildung/Erziehung stark vertretenVergleichende Schuluntersuchungen wie z.B. PISA•Zielerreichungsmodelle eigenen sich gut für Projekte mit klar definierten und gut operationalisierbaren Zielen •Kritik am zielgebundenen Evaluationsmodell:Durch die Orientierung an den Zielen der Auftraggeber wird eine objektive Bewertung erschwertDas Programm wird nicht umfassend bewertet»Nicht gemessene Nebenwirkungen bleiben unentdeckt und unbeachtetAus der Kritik am zielgebundenen Evaluationsmodell entwickelte sich die zielfreie Evaluation (goalfreeevaluation) (Scriven, 1999)Nicht nur die beabsichtigten, sondern auch die unbeabsichtigten (positiven und negativen) Effekte des Programms sind von InteresseDie Evaluatoren bleiben unvoreingenommen und können somit die Gesamtheit der Wirkungen (gewollt und ungewollt) besser erfassen 2. Wirksamkeitsmodelle•Nachweis der ursächlichen Wirksamkeiteiner Maßnahme steht im Vordergrund•Zielen auf kausale Erklärungen der Effekte ab:Einsatz von (Quasi)-experimentellen Designs»Z.B. Effekte eines Trainingsprogramms (PowerPoint-Kurs) in einer Schulklasse erfassen und mit einer Kontrollgruppe (anderen Schulklasse, die den Kurs nicht gemacht hat) vergleichen»Zentrale Frage: hat das Programm die operational bestimmbare Zielgröße (z.B. Fähigkeit eine Masterfolie zu erstellen/bearbeiten)ursächlichbedingt?Problem: (kausale) Generalisierung von Ergebnissen ist bei Quasi-Experimenten eingeschränkt»Unterschiede zwischen den Schulklassen können nicht eindeutig auf das Trainingsprogramm zurückgeführt werden….»…sondern könnten ebenso auf Unterschiede zwischen den Klassen (z.B. Vorerfahrungen mit PowerPoint) zurückgeführt werden Diesem Problem kann man jedoch entgegenwirken:Mögliche Störvariablen miterhebenGenaue Analyse/Beschreibung der (erwarteten) Funktionsweise der InterventionAm Programm Beteiligte bei der Zielfindung einschließen
- Beschreibe die Prozessmodelle. •Verlaufeiner Maßnahme steht im Mittelpunkt•Formative Evaluation / entwicklungsorientierte EvaluationRückmeldung der Zwischenergebnisse zur Optimierung des ProgrammsEvaluation hat unterstützende / gestaltende Funktion
- Beschreibe die Nutzenmodelle. Allgemein:• Praktischer Verwertbarkeit der Evaluationsergebnisse steht im MittelpunktWas „passiert“ am Ende mit den Daten? Wie werden sie genutzt?Nutzung/Verwertbarkeit der Ergebnisse für…»…die Politik»…Wertentscheidungen der am Evaluationsgeschehen Beteiligten 1. Ökonomische Nutzenmodelle•Erfassung des ökonomischen NutzensBeurteilung der aufgewendeten Mittel im Verhältnis zu den gemessenen Wirkungen•Nutzen > Kosten Effizient gegebenEin Programm ist effizient, wenn:»Der Nutzen die Kosten übersteigt»Das Programm gegenüber einem anderen Programm eine bessere Kosten-Nutzen-Relation hatDer „Nutzen“ wird dabei im Sinne der Zielerreichung gemessen•Beispiel: Vier-Ebenen-Modell von Kirkpatrick 2. Stakeholder-Modelle•Annahme: Die Umsetzung von Evaluationsergebnissen ist umso wahrscheinlicher, je stärker die Evaluation die Fragen der jeweiligen Interessensgruppen fokussiert•Charakteristisch ist daher ein explizit partizipatives VorgehenAlle Interessensgruppen werden in allen Phasen des Evaluationsprozesses gleichberechtigt einbezogenZiele der Evaluation und die zu erfassenden Ziele des Programms werden konsensual bestimmt •Beispiel: Nutzengesteuerte Evaluation nach Michael PattonFragestellungen für die Evaluation werden im Dialog mit den Nutzern entwickeltDie Nutzer verpflichten sich dem Schwerpunkt der Evaluation und der Verwertung der ErgebnisseVorteil:»fördern die Selbstreflexion und das Lernen in Organisationen, weil Nutzer involviert sindNachteil:»Weil alle Interessensgruppen involviert sind, sind solche Evaluationen sehr steuerungsintensivVermittlung zwischen Interessengruppen, finden eines gemeinsamen Konsens usw.
-
- Beschreibe die Bewertungsorientierten Modelle. •Empirisch gestützte Bewertung und Beurteilungdes Evaluationsgegenstandes steht im MittelpunktDeutliche Abgrenzung zur „wertfreien“ Grundlagenforschung•Frühester Vertreter ist Michael Scriven (1971)Der Evaluator hat die Pflicht, ein möglichst knappes und präzises Urteil abzugeben»„gut“ oder „schlecht“Plädoyer für eine unabhängige (externe) Evaluation, die am besten zielfreidurchgeführt wird, um den Wert des zu evaluierenden Gegenstandes möglichst fehler-/störungsfrei zu erfassenIm Gegensatz zu den nutzenorientierten Modellen wird der objektiven Bewertunghier wesentlich mehr Bedeutung zugemessen als der Frage, was im Anschluss mit den Daten passiert! •Beispiel: das responsive Evaluationsmodell von Stake, 1975Evaluation soll Antworten für Informationsanliegen der verschiedenen Beteiligten/Betroffenen bereitstellenSteuerungsfaktoren sind hier Programmbestandteile, die von den Beteiligten als problematisch, konfliktreich oder ungelöst wahrgenommen werden»Programmelemente, die als problematisch erlebt werden „steuern“ die Evaluation insofern, als dass man daran erkennt, wo man nochmal ansetzen bzw. modifizieren muss»Die Werte der verschiedenen Betroffenen stehen dabei gleichberechtigt nebeneinander und müssen in der Evaluation alle gleichermaßen berücksichtigt werdenPrimär qualitative Datenerhebung (Beobachtung, narrative Verfahren, Interviews usw.)Eignet sich v.a. zur Evaluation neuer Programme»Evaluation übernimmt hier eine ServicefunktionBezieht die Ansichten der Betroffenen explizit mit einGibt Antworten auf die Fragen der Betroffenen
- Beschreibe die Programmorientierten Modelle. •Betrachten sowohl den Input, als auch den Prozess, den Output und die Bedingungen, unter denen das Programm stattfindet•Die Frage, wie das Programm funktioniertsteht im MittelpunktDaraus können Vorschläge für Verbesserungen abgeleitet werdenWeist das Programm Schwächen auf, kann zwischen einem Theorie-Fehler oder einem Umsetzungsfehler unterschieden werden•Beispiel: CIPP-Modell (ContactInput ProcessProduct, Stufflebeam& Shinkfield, 2007)C Umfeld des untersuchten ProgrammsI In das Programm eingehende FaktorenP ImplementationP Ergebnisse, ZielerreichungVerzahnung von Evaluation und EntscheidungssituationEvaluation soll genutzt werden, um Entscheidungen herbeizuführen
- Was sind Entscheidungskriterien für die Wahl eines Evaluationsmodells? •Die Wahl des Evaluationsmodells sollte sich in erster Linie an den Fragen und Anliegen der Evaluation ausrichten•Bei der Wahl eines Evaluationsmodells können dabei folgende Leitfragen helfen:Welche Funktion / welches Ziel der Evaluation steht im Vordergrund?»Z.B.: Geht es um die Zielerreichung oder geht es um die Nutzung der Ergebnisse?Welche Ziele und Bewertungskriterien haben die Beteiligten?Welche Evaluationsebenen interessieren?Welche Daten sind gewünscht?»Kontext, Input, Prozess und/oder Output?Sind die Ziele der Programmtheorie expliziert?»Geht es darum die Erreichung der Programmziele zu evaluieren oder müssen die Programmziele erst ausgehandelt werden?Welche Ressourcen stehen zur Verfügung?»Betrachtung der Ressourcen, um die Durchführbarkeit der Evaluation zu gewährleisten
- Zähle den Prozess der Evaluation nach Balzer auf. 1.Evaluationsbedarf 2.Evaluationsauftrag3.Evaluationsgrundlagen3.1Bestimmung des Evaluationsgegenstandes3.2Bestimmung der Akteure der Evaluation3.3Evaluationsziele und -fragenbereiche3.4Bestimmung der Bewertungskriterien3.5Bestimmung theoretischer Grundlagen3.2.1Auftraggeber3.2.2Entscheidungsträger3.2.3Evaluatoren3.2.4Weitere Beteiligte und Betroffene3.2.5Akteure im Zusammenspiel4.Rahmenbedingungen der Evaluation5.Methodische Projektplanung6.Durchführung der Evaluation7.Datenauswertung8.Präsentation und Berichtlegung9.Dissemination der Ergebnisse10.Nutzung der Ergebnisse11.Bewertung der Evaluation
- Beschreibe die einzelnen Phasen des Prozesses der Evaluation nach Balzer. Evaluationsbedarf•Besteht die Notwendigkeit einer Evaluation?Evaluationsauftrag•Wer erteilt den Auftrag zur Evaluation? EvaluationsgrundlagenBestimmung des Evaluationsgegenstandes•Komplexität eines Evaluationsgegenstandes•Gültigkeitsbereich einer FragestellungDer Bereich, auf den sich eine Fragestellung bezieht muss klar definiert sein•Objektivierbarkeit eines EvaluationsgegenstandesVoraussetzung für die empirische Erfassung des EvaluationsgegenstandesObjektivierbarkeit umfasst drei Indikatoren:»Erkennbarkeit»Bestimmbarkeit»Dokumentation•TransparenzDas Vorgehen zur Bestimmung des Evaluationsgegenstandes……und die Regeln zur Erfassung müssen transparent sein•Psychometrische Gütekriterien der Instrumente•Interne und externe Validität des Evaluationsdesigns•Evaluationsstandards (Übergeordnet für den gesamten Prozess)NützlichkeitDurchführbarkeitFairnessGenauigkeitÜberparteilichkeitBestimmung der Akteure der Evaluation•Auftraggeber•Entscheidungsträger•Evaluator(en)•Weitere Beteiligte und Betroffene•Akteure im ZusammenspielEvaluationsziele und –fragenbereiche•Welche Intervention verspricht den größten Nutzen?•Wie kann eine Intervention wirksamer gestaltet werden?•Wie sehen die Evaluationsziele aus Sicht verschiedener Interessensgruppen aus?Bestimmung der Bewertungskriterien & theoretischer Grundlagen•Theoretische und methodische Grundlagen berücksichtigen•Es geht darum, auf Basis theoretischer und methodischer Überlegungen abzuleiten, welche Bewertungskriterien für die Bewertung des Evaluationsgegenstandes geeignet sind•Beispiel:Was könnten Bewertungskriterien sein, um festzustellen ob die Lehre an der Universität-Trier „gut“ ist?»Zufriedenheit der Studierenden?»Lernerfolg?Bestimmung theoretischer Grundlagen Rahmenbedingungen der Evaluation• Evaluation im Feld vs. Evaluation im Labor• Parteiliche Evaluation vs. Überparteiliche (objektive) Evaluation• Vertrauliche (geschlossene) vs. Öffentliche (offene) Evaluation Methodische Projektplanung•Bei der methodischen Projektplanung wird auf den Methodenkanon der wissenschaftlichen (Sozial-)Forschung zurückgegriffen•Welche Zielrichtung soll das Evaluationsmodell haben?Praxisorientierte, entwicklungsorientierte oder theorieorientierte Evaluation?•Welcher Durchführungsmodi?Intrinsisch, extrinsisch, intern, extern, summativ, formativ, vergleichend, nicht vergleichend?•Welche Ausrichtung soll die Evaluation haben?Makro, Mikro, Programmevaluation, Input-, Outputevaluation, Complianceevaluation? Durchführung der EvaluationDatenauswertungPräsentation und BerichtlegungDissemination der Ergebnisse•Wer erhält die Evaluationsergebnisse?Nutzung der Ergebnisse•Welche Funktion haben die Ergebnisse, wozu werden sie genutzt?Bewertung der Evaluation•Was lief gut, was lief schlecht?QuerschnittsaufgabenBudgetierung, Evaluationsvertrag, Steuerung, personelle Ausstattung
- Beispiel des Evaluationsprozesses als Praktische Umsetzung des Modells am Masterstudiengang Psychologie. Evaluationsbedarf§5, Abs. 3 rh-pf.HochSchG„Zur Qualitätssicherung gehört auch, dass die Arbeit der Hochschule in Forschung, Studium und Lehre, ... regelmäßig … bewertet wird. Die Studierenden sind bei der Bewertung der Qualität der Lehre zu beteiligen. Die Ergebnisse der Bewertungen sollen, soweit es sich nicht um personenbezogene Daten handelt, veröffentlicht werden.“KMK-BeschlussAkkreditierung der BA-/MA-StudiengängeExzellenzinitiative für die LehreWettbewerb der HochschulenEvaluationsauftragGesetzgeberLeitung der UniversitätEvaluationsgrundlagenWas soll wozu, durch wen, wie und womit evaluiert werden?EvaluationsgegenstandLehrveranstaltungen, Curriculum, Ausstattungder BibliothekPrüfungsmodalitäten,Relation Studierende/Lehrende,Beratungsangebote, etc.Akteure der EvaluationStudierendeLehrendeLeitung der UniversitätGesetzgeberGesellschaftWas soll wozu, durch wen, wie und womit evaluiert werden?Evaluationsziele, aus SichtderStudierendenEffektiveres LernenHöhere Zufriedenheit mit StudienleistungenHöhere Wahrscheinlichkeit des Erreichens formaler AbschlüssePartizipation an Gestaltung von Lehr-LernarrangementsOrientierungshilfe zur Wahl von LehrveranstaltungenOrientierungshilfe zur Wahl des StudienortesLehrendenRückmeldung über eigene ArbeitVergleich mit PeersHinweise auf VerbesserungsmöglichkeitenBeteiligung der Studenten an Gestaltung von LernmöglichkeitenVerbesserung der Lern-& Prüfungsleistungen der StudierendenQualifikationsnachweisLeitung der UniversitätOrientierung über Qualität der Arbeit in der eigenen OrganisationHinweise auf OptimierungsmöglichkeitenDokumentation der LehrtätigkeitErfüllen der GesetzesauflageVoraussetzung für SystemakkreditierungSteigerung der AbschlussquotenKriterien bei Verhandlung um Stellen und GratifikationenWettbewerb zwischen UniversitätenKriterium für (Dritt-)MittelzuweisungGesellschaftQualität der staatlichen EinrichtungSteigerung der Quote gut ausgebildeten NachwuchsesStellung im internationalen WettbewerbPolitikQualität der Arbeit staatlicher EinrichtungenHinweise auf OptimierungsmöglichkeitenDokumentation der Wirkungen eigener Arbeit(inter-)nationaler WettbewerbKriterien für MittelzuweisungenWas soll wozu, durch wen, wie und womit evaluiert werden?Bestimmungder Bewertungskriterien guter Lehretheoretische Grundlagenmethodische GrundlagenRahmenbedingungen der EvaluationFeldüberparteilichoffenöffentlich (Befundlegung)anonym (Befragung)methodische ProjektplanungenEvaluationsmodell: praxisorientiertInterneplus externe EvaluationProgrammevaluation auf MikroebeneFormativ plus summativDurchführung der EvaluationSchriftliche, standardisierte Einzelbefragung vonStudierenden,Lehrenden und AbsolventenQuantitativExtrinsischDatenauswertungEvaluationsergebnisseDisseminationNutzungBewertungDissemination der ErgebnisseNutzung der ErgebnisseBewertung der Ergebnisse
- Was sind Gemeinsamkeiten von psych. D. und Eva.? •Prozesshaftes GeschehenDynamischer ProzessRekursiver Prozess•Ziel-und ZweckorientierungFolgt einem finalen Denkmodell•Wissenschaftliches ArbeitenArbeiten mit wissenschaftlichen MethodenMultimodales & multimethodales Vorgehen•Nutzen verschiedener Wissensbestände sensu Kaminski•Sind an bestimmten Kriterien orientiert/sollen Gütekriterien gerecht werden•Hypothesengeleitetes VorgehenPräzisierungsalgorithmus•Entscheidungen erleichtern, kontrollieren und optimieren•Ethische Vertretbarkeit•Durchführung durch qualifizierte Personen (Ausgebildete Evaluatoren bzw. Diagnostiker)•Querschnittsaufgaben
- Was ist gute Lehre und wie kann sie gemessen werden? Was sind Vor- und Nachteile? (Beispiele -> siehe Tutorium) Methode -> KriterienTheoretische Ableitungen, z. B. Theorien der Arbeitszufriedenheit, Grundsätze der Instruktionspsychologie -> Studienbedingungen und –inhalte, Benotung, Kontakte zu Lehrenden & Kommilitonen, berufliche Relevanz, Randbedingungen des Studiums, …>>Ableitung von Kriterien guter Lehre aus etablierten Theorien ist ein wünschenswertes VorgehenWird aber in der Realität nur selten gemachtSchwierig, für alle Aspekte der Lehrqualität entsprechende Theorien zu findenAnalyse von Lehrzielen anhand Curricula,Bildungsstandards-> Entwicklung von Interesse, Lernerfolg (subjektiv & objektiv), Kompetenzerwerb>>Vorteil:Kriterien werden sehr eng mit den Lehrzielen der Dozierenden abgestimmtHohe Akzeptanz der Lehrevaluation bei den Lehrenden•Nachteil:Erfassung der Kriterien sehr aufwendig (z.B. Lernerfolg)Ändern sich die Lehrinhalte/Dozenten, müssen die Kriterien neu erarbeitet werdenBefragung von Lehrenden und Lernenden nachden Merkmalen guter Lehre-> Fachkompetenz, Anleitung zum selbständigen Arbeiten, Stimulation von Interesse, Klarheit,Verständlichkeit, …>>Studierende und Lehrende…•…stimmen i.d.R. hochgradig darin überein, welcheMerkmale gute Lehrende idealerweise aufweisen sollen•…unterscheiden sich jedoch in der Gewichtungder MerkmaleStudierendebetonen die Bedeutung der Vermittlungsmethode»Insbesondere den InteraktionsaspektLehrendebetonen die Bedeutung der Inhalte sowie die Anleitung zum selbstständigen LernenSichtung von Instrumentender Lehrevaluation-> Inhalte, Didaktik,Methodik, Hilfe rund um die Veranstaltung, Lernerfolg, Gründe für den Besuch der Veranstaltung, …>>Am meisten verwendete Methode•Vorteil:Ökonomische Herangehensweise (man muss das Rad nicht neu erfinden)•Nachteil:Schwächen bestehender Instrumente werden übernommenBestimmungder Ziele guter Lehre und empirische Analyse ihrer Prädiktoren-> Welche Merkmale der Lehre korrelieren hoch mit den Kriterien?>>Vorsicht!•Dieses Verfahren kannzu sehr fragwürdigen Ergebnissen führen!Wenn sich nämlich Prädiktoren als vorhersagekräftig erweisen würden, die nur indirekt als Indikatoren der Lehrqualität angesehen werden oder sogar auf schlechte Lehre hindeuten!•Beispiel: Kriterium = Studienerfolgsquotekann durch Verringerung der Anforderungen erhöht werdenDas ist aber keinPrädiktor guter Lehre, sondern spricht eher für schlechte Lehre!
- Wie kann der Lernerfolg als Kriterium guter Hochschullehre unterschieden werden? •Was „ist“ Lernerfolg?Aneignung der Wissensinhalte und Fertigkeiten, die in der Lehrveranstaltung (LV) vermittelt werden sollen•Bzgl. des Lernerfolgs unterscheidet man zwischen:Objektivem Lernerfolg•Lernerfolg lässt sich mit einem Leistungstest am Ende überprüfen (Klausur)Genau genommen müsste man aber auch einen Leistungstest zu Beginn der Veranstaltung machen und dann vergleichen (Differenz des Wissens vorher/nachher)>>ProblemePrä-Post-Messung als Standardmethode ungeeignet»Hoher methodischer Aufwand, der in jeder LV nicht leistbar ist»Geringe Akzeptanz bei StudierendenVor der Veranstaltung über unbekannten Stoff „geprüft“ zu werden erscheint frustrierend/sinnlosVergleichbarkeit der Leistungen über Kurse hinweg nicht gegeben»Uni-Kurse haben sehr unterschiedliche Inhalte und Lernziele»Lernaktivitäten sind in der Studienzeit deutlich heterogener (weniger standardisiert)als in der SchulzeitMultikausale Bedingtheit des Lernerfolgs»Objektiver Lernerfolg wird von verschiedenen Faktoren beeinflusstVor allem von den Lernaktivitäten der Studierenden, die wiederum stark von motivationalen und kognitiven Aspekten abhängenAber auch von anderen Faktoren, wie z.B. Vorwissen, Tagesform, abgefragte Inhalte usw.Lernzuwachs & Zufriedenheit mit Studienbedingungen / Interesse am Inhalt korrelieren ggf. negativ»„Paukkurse“Lernzuwachs meist sehr groß, während die Zufriedenheit mit den Studienbedingungen und das Interesse am Thema negativ beeinflusst wird Subjektivem Lernerfolg•Wird mittels Zustimmungsitems erhobenZ.B. „mein Lernerfolg in dieser Veranstaltung war hoch“•Ist ein Markieritem für die Gesamtzufriedenheit der Studierendenje stärker Studierende der Meinung sind viel gelernt zu haben, desto höher ist die Gesamtzufriedenheit•Vergleichbarkeit ist über Kurse hinweg gegeben•Ist kein Proxy für objektiven Lernerfolg!Korrelation zwischen objektivem und subjektivem Lernerfolg nur gering (r = .13 -.18)
- Warum gibt es nur geringe Korrelationen zwischen objektivem und subjektivem Lernerfolg? •Liegt evtl. daran, dass subjektiver und objektiver Lernerfolg anhand unterschiedlicher Bezugsnormengemessen werdenSubjektiver Lernerfolg: individuell-temporale Bezugsnorm»Items fragen nach Lernzuwachs über die Zeit: „Ich weiß jetzt mehr als zu Beginn des Kurses“Objektiver Lernerfolg: soziale Bezugsnorm»Eigenes Abschneiden in der Klausur im Vergleich mit den anderen Studenten•Subjektiver Lernerfolg = Markieritem für GesamtzufriedenheitBefund zum objektiven Lernerfolg zeigt jedoch:»Lernzuwachs und Zufriedenheit korrelieren ggf. negativ („Paukkurse“)•Multikausale Bedingtheit des objektiven LernerfolgsGutes Abschneiden im sozialen Vergleich muss nicht zwingend auf hohen Lernzuwachs oder hohe Zufriedenheit zurückzuführen sein»Kann auch Folge von hohem Vorwissen zu Kursbeginn sein»Oder „schlechte Lehrqualität“ wurde durch aufwendige Lernaktivitäten kompensiertDurchaus möglich, dass Zufriedenheit sehr gering, aber Note trotzdem gut istSchlechtes Abschneiden lässt nicht zwingend auf geringen Lernzuwachs oder geringe Zufriedenheit schließen»Z.B. waren mit dem Kurs zufrieden und hatten subjektiv auch das Gefühl viel gelernt zu habenIn der Klausur wurde dann aber genau in eine „Lücke“ gefragt und wir haben eine schlechte Note, weil wir das, was wir wussten nicht zeigen konnten (weil nicht gefragt)
- Was sind Methoden der Lehrevaluation? Befragung von Studierenden•Am häufigsten eingesetzte Methode•Breites Spektrum an methodischen HerangehensweisenMündliche RückmeldegesprächeFormative Evaluation während dem SemesterFragebogenerhebung z.B. mittels»Heidelberger Inventar zur Lehrveranstaltungsevaluation (HILVE) (siehe VL-Folie genauer erklärt)»Trierer Inventar zur Lehrevaluation (TRIL)»Fragebogen zur Prozess-und Ergebnisorientierten Lehrveranstaltungsevaluation (PELVE)Summative Evaluation am Ende des Semesters Befragung von Absolventen•Retrospektive Befragung von AbsolventenBewertung der Relevanz von Studieninhalten aus Sicht der Berufspraxis•Problem: geringe RücklaufquoteMan kommt an Absolventen schlecht ran (keine Kontaktadressen) Selbstevaluation der Lehrenden•Selbsteinschätzung der Lehrenden bzgl. der eigenen LehrveranstaltungDeskriptive Einschätzung von Aspekten der Veranstaltung / des eigenen Lehrverhaltens•Problem: Selbsteinschätzung beruht auf N = 1Wenig reliabel…
- In welche 4 Gruppen lassen sich die Methodischen Ansätze zur Untersuchung der Validität studentischer LVE gliedern? 1.Dimensionalität studentischer LVE als Hinweis auf die Konstruktvalidität2.Übereinstimmung von Beurteilern als Maß der konvergenten Validität3.Einfluss von Biasvariablen4.Zusammenhang von studentischen LVE mit Lernerfolg und Leistungsmaßen als Kriteriumsvalidierung
- Wie kann die Dimensionalität studentischer LVE überprüft werden? •Überprüfung der theoretischen Messmodelle mithilfe von konfirmatorischen Faktorenanalysen (CFA)•Es gibt 3 Herangehensweisen: CFA auf Studentenebene•RohdatenanalyseCFA auf Basis der individuellen StudentenurteileDefinition der latenten Variablen auf PersonenebeneProblem:Vernachlässigung der Gruppierung von Studenten in Veranstaltungen»Verletzt die Annahme identisch verteilter und unabhängiger Beobachtungen Kann mittels Intraklassenkorrelation (ICC) überprüft werdenWenn ICC ≥.15 haben wir zwei Probleme:»Überschätzung der Modellparameter»Unterschätzung des StandardfehlersDas ist schlecht, weil das (kurz gesagt) heißt, dass unsere Ergebnisse dann nicht aussagekräftig sind! CFA auf Veranstaltungsebene•MittelwertanalyseCFA auf Basis der veranstaltungsbezogenen MittelwerteProblem:Individuelle Studentenurteile gehen nicht ins Messmodell ein»Vernachlässigung der Varianz der Urteile innerhalb einer VeranstaltungDas ist schlecht, weil dadurch die Zusammenhänge auf Veranstaltungseben überschätzt werdenMultilevel-CFA („Methode der Wahl“!Wird durchgeführt, um der Tatsache gerecht zu werden, dass wir bei LVE genestete Daten haben•Berücksichtigung der Mehrebenenstruktur•Konstruktion latenter Variablen auf Veranstaltungsebene (Analyseeinheit) unter Verwendung der Erhebungseinheit (Studentenurteile)Entspricht der Annahme, dass:Eigenschaften der Veranstaltung Einfluss auf Studentenratings haben»Ratings derselben Veranstaltung fallen ähnlicher aus,als Ratings verschiedener VeranstaltungenStudenten als Rater beeinflussen das Ergebnis der LVE»(obwohl Ratings sich innerhalb derselben LV ähnlicher sind als zwischen LV)können die Ratings einzelner Studenten sich innerhalb einer LVE unterscheiden
- Was haben Segewald & Vetterlein bei ihrer Studie zur Dimensionalität studentischer LVE gemacht? •Worum ging es?Vergleich von konventioneller (singlelevel-) CFA mit multilevel-CFA am Beispiel des PELVE•Was wurde gemacht?Das postulierte Messmodell wurde mit 3 CFA-Arten überprüft:»Single-Level-CFA: Studentenebene»Single-Level-CFA: Veranstaltungsebene»Multilevel CFA•Die Stichprobe umfasste dabei:Veranstaltungen (Vorlesungen, Seminare, Übungen)DozentenStudierende•Ergebnis:CFA auf Veranstaltungsebene»Modellfit inakzeptabel Verwerfung des MessmodellsCFA auf Studentenebene»Inkonsistenter Modellfit keine eindeutigen Aussagen möglichMultilevel-CFA»Akzeptabler Modellfit»Notwendigkeit einer Multilevel-CFA zeigt sich auch bei den ICC-Werten!ICC-Werte liegen zwischen .16 -.44 Erinnerung:Wenn ICC ≥.15 werden Modellparameter über-und Standardfehler unterschätzt!Single-Level CFA kann damit nicht umgehen!
- Welche Korrelationen haben sich bei der Übereinstimmung von Beurteilern ergeben (konvergente Validität)? Betrachtet wird der Zusammenhang zwischen studentischen Urteilen und denen von…•AbsolventenAuf Veranstaltungsebene sehr hoch (rtt= .83)Auf Individualebene eher hoch (rtt= .58)Deutet auf eine hohe zeitliche Stabilität studentischer Lehrbeurteilungen hin und spricht für die Validität studentischer Urteile•Selbsteinschätzung der LehrendenGesamturteile eher gering (rtt= .29)Streuen hinsichtlich einzelner Dimensionen ziemlich stark (rtt= .15 -.49)Ist darauf zurückzuführen / zeigt, dass verschiedene Dimensionen von Lehrenden und Studierenden unterschiedlich gewichtet werden! (vgl. Folie 7)•FachkollegenEher hohe Zusammenhänge (rtt= .53 -.57)Starker Hinweis auf die Validität studentischer Lehrbeurteilungen•Studierende untereinanderZusammenhänge eher gering (rtt= .20 -.30) Achtung!•Korrelationen basieren auf manifesten StudierendenurteilenMehrebenenstruktur (Studierende geschachtelt in Veranstaltungen) wird vernachlässigtKann zu einer verzerrten Schätzung führen!•Beurteilungen sind anfällig für Verzerrungenunklar, ob Korrelation nur ein Maß für den Konsens zwischen den Beurteilern ist …… oder auch die Akkuratheitder Urteile (und damit die Validität des Urteils) wiederspiegelt
- Was sind Bias-Variablen? Variablen, die„nicht mit dem Lehr-und Lernprozess in Zusammenhang stehen (Bedingung 1),jedoch systematisch mit dem Antwortverhalten der Studierenden kovariieren(Bedingung 2)“ (Spiel, 2001, S. 61). Potenzielle Biasvariablen sindVariablen der Veranstaltung, z. B.Gruppengröße, Zeit, OrtVariablen der Lehrenden, z. B.Geschlecht, LehrerfahrungVariablen der Studierenden, z. B.Interesse, Grund für die Teilnahme Unterschiedliche Vorhersagebeiträge der Prädiktoren („Biasvariablen“) auf die verschiedenen LVE-Dimensionenbelegen die dikriminanteValidität dieser Dimensionen undsprechen für eine differenzierte Studentenbewertung
-
- Was wird in dem Befund zu Bias-Variablen nach Spinath und Stehle gefunden? •Mögliche Biasvariablen sind:Interesse am ThemaBiasvariablemit durchweg positivem Effekt»In mehreren Studien konnte ein relativ starker Zusammenhang zwischen dem Interesse und der studentischen LVE nachgewiesen werden»Hohes Interesse geht dabei mit besseren Bewertungen einherZeigt sich auch in folgendem Befund:»Pflichtveranstaltungen werden tendenziell negativer bewertet als WahlveranstaltungenSympathie für die LehrpersonWird häufig im Evaluationsalltag genannt, jedoch bisher wenig untersuchtSchwierigkeit der VeranstaltungsinhalteInkonsistente Befundlage hinsichtlich des Einflusses der Anforderungen der LV»Einige Studien zeigen:Niedrige Anforderungen gehen mit besseren Bewertungen der LV einher»Andere Studien zeigen:Je höher die subjektiv empfundene Schwierigkeit, desto besser die Bewertung der LVMilde der Benotung korreliert (leicht) positiv mit studentischen LV-Bewertungen (.10 < r < .30)»Handelt es sich hierbei um einen Verzerrungseffekt?Milde Benotung durch Dozierende wird mit guter Veranstaltungsbewertung „belohnt“?»Validitätshypothese bietet eine mindestens genauso plausible Erklärung!Gute LV führen sowohl zu guten Noten, als auch zu guten Bewertungen durch StudierendeMars & Roche (2000) kommen nach einer Überprüfung der beiden Hypothesen zu dem Ergebnis, dass die Daten eher die Validitätshypothese stützen!Methodenkurse werden allgemein schlechter bewertet als Nicht-MethodenkurseMerkmale der LehrpersonKeine inhaltlich bedeutsamen Zusammenhänge zwischen der Bewertung einer LV und…»Alter, Geschlecht und Lehrerfahrung des DozierendenVan Griffen (1990)»fand positive Korrelationen zwischen der studentischen Beurteilung der Lehreffektivität und den folgenden (ebenfalls von den Studierenden eingeschätzten) Dozentenmerkmalen:Humor (r = . 53)Freundlichkeit (r = .64)Hilfsbereitschaft (r = .79)Sind diese Ergebnisse auf einen Halo-Effekt zurückzuführen?Positiv beurteilte Persönlichkeitseigenschaften verzerren die LV-Bewertung positivLV-Bewertung wäre dann keine Bewertung der LV-Qualität, sondern eher ein Maß für die Beliebtheit eines Dozenten…Befund muss nicht zwangsläufig auf einen Halo-Effekt hinweisen!Es wäre genauso möglich, dass Humor, Freundlichkeit und Hilfsbereitschaft des Dozenten zu einem positiven Lernklima beitragenDies würde dann (zu Recht) mit hoher Zufriedenheit der Studierenden einhergehen (und vermutlich auch den Lernerfolg verbessern)
- Was wurde bei Fondel et al. zum Einfluss von Bias-Variablen gefunden? Ziele der Studie von Fondel, Lischetzke, Weis & Gollwitzer (2015)FaktorielleValidität und Messinvarianz über Veranstaltungsarten (V vs. S/Ü)Grad der Übereinstimmung der StudierendenurteileVorhersage der LVE durch die Studierendenvariablen Interesse, SympathieundSchwierigkeitMethodeStichprobe1823Studierendenurteile (Level-1)geschachtelt in101Veranstaltungen (Level-2; 51 V, 50 S/Ü;pro Lehrperson 1 LV )Durchführungfachbereichsübergreifende standardsierteOnline-Befragung Ende des WS 2012/13,Universität Koblenz-LandauVariablenTRIL (Gollwitzer & Schlotz, 2003) (Trierer Inventar zur Lehrevaluation)Struktur/Didaktik (SD; 6 Items)Anregungsgehalt (AG; 6 Items)Veranstaltungsklima (VK; 2 Items)Anwendungs-& Praxisbezug (AP; 2 Items)Interesse, Sympathie & Schwierigkeit jeweils EinzelitemDatenanalyse FaktorielleValidität und Messinvarianz über Veranstaltungsarten (V vs. S/Ü)Spezifizierung von Multigruppenmodelle der konfirmatorischenFA (CFA) unter Berücksichtigung der Mehrebenenstrukturder Daten;sequentielle Prüfung der MI (konfigural→schwach → stark → strikt)Grad der Übereinstimmung der StudierendenurteileSpezifizierung eines ML-CFA-MTMM-Modell nach (Eid, et al., 2008)Level-1: Modellierung der Studierendenurteile innerhalb von VeranstaltungenLevel-2: Modellierung der mittleren Urteile (Unterschiede zwischen Veranstaltungen)MTMM-Modellogik:Variablen auf Level-1: latente Methodenfaktoren (Studierende als Methoden betrachtet)→ s2der Methodenfaktoren bildet Unterschiedlichkeit der Studentenurteile abVariablen auf Level-2: latente indikatorspezifische TraitvariablenTrue scoresder Veranstaltungen (frei v. Messfehlern & raterspezifischenEffekten)→ s2der Traitvariablenbilden Unterschiedlichkeit in der mittleren Beurteilung abVorhersage der LVE durch die Studierendenvariablen Interesse, Sympathie&SchwierigkeitErweiterung des ML-CFA-MTMM-Modells um die Prädiktoren undRegression der Level-1-Methodenfaktoren auf dieseErgebnisseFaktorielleValidität und Messinvarianz über Veranstaltungsarten (V vs. S/Ü)strikte MI, d. h.gleiche Ladungen (gleiche Diskriminationsfähigkeit der Items)gleiche Intercepts(gleiche Itemschwierigkeiten)&gleiche Fehlervarianzen (gleiche Messfehlerbehaftetheitder Items)über Veranstaltungsarten hinwegGleichsetzung der Mittelwerte der latenten Variablen über Veranstaltungsarten: Fit inakzeptabelAGS/Ü> AGV(p < .05); APS/Ü> APV(p < .05); keine MW-Unterschiede auf VK & SDGrad der Übereinstimmung der StudierendenurteileLevel-2-Traitvariablen derselben Dimension: .88 <r <.97; Methodenfaktoren: .64 <r <.80Konsistenz: 30 -55%; Methodenspezifität: 45 -70%substantielle Übereinstimmung bei gleichzeitig relativ starker Heterogenität der Studierendenurteile innerhalb von Veranstaltungen (raterspezifischeEffekte)Vorhersage der LVE durch die Studierendenvariablen Interesse, Sympathie&SchwierigkeitSchlussfolgerungen FaktorielleValidität und Messinvarianz über Veranstaltungsarten (V vs. S/Ü)Bestätigung der 4-faktoriellen Struktur des TRILMittelwertsvergleichezwischen Veranstaltungsarten mit TRIL zulässigSeminare und Übungen werden im Vergleich zu Vorlesungen nur auf den Dimensionen 1.) Anregungsgehalt sowie 2.) Anwendungs-/ Praxisbezug besser bewertetGrad der Übereinstimmung der StudierendenurteileMethodenspezifität etwas höher ausgeprägt als Konsistenzausreichende Beobachterübereinstimmung gegebenHinweis auf konvergente ValiditätTRIL ermöglicht systematische Unterschiede zwischen Veranstaltungen abzubildenVorhersage der LVE durch die Studierendenvariablen Interesse, Sympathie&SchwierigkeitZusammenhänge zwischen Prädiktoren und LVE über Veranstaltungsarten gleichinterindividuelle (prädiktor-und dimensionsspezifische) Unterschiede zwischen Studierenden bei LVEspezifischer Einfluss der Prädiktoren je nach TRIL-Dimension: Hinweis auf diskriminanteValidität der TRIL-DimensionenStudierende differenzieren bei LVE zwischen QualitätsfacettenSympathiehat durchweg den stärksten Vorhersagebeitragkeine kausalen Schlussfolgerungen möglich
- Was kannst du zu dem Zusammenhang von studentischen LVE mit Lernerfolg sagen? (Kriteriumsvalidität) Gehen bessere studentische Beurteilungen mit besseren Lernerfolgen einher?•Veranstaltungsebene als AnalyseeinheitVergleich von LVs mit gleichen Inhalten……aber unterschiedlichen Lehrenden / Lehrmethoden Multi SectionValidityParadigmaGruppierung von LVs desselben Inhalts, diese LVs werden von unterschiedlichen Personen durchgeführt. Anschließende Bewertung der LVS aller Gruppen mit demselben Lehrbeurteilungsbogen und Prüfung des Lernerfolgs anhand eines einheitlichen LeistungstestsMA Cohen (1981): .40 <r <.50MA Clayson(2009): r = .33Korrelationen variieren stark zwischen den Studien •Multi Section Validitätsstudien weisen einen mittleren Zusammenhang zwischen Lernerfolg und studentischen Lehrveranstaltungsbeurteilungen ausDies ist ein Beleg für die Validität studentischer Lehrveranstaltungsbeurteilungen»Gute Bewertungen gehen mit besserem Lernerfolg einher
- Nenne 3 Funktionen von Evaluation. - Optimierungsgrundlage - Durchsetzungshilfe für Entscheidungen - Strategisches Instrument - Entscheidungshilfe - Leistungs- und Motivationssteigerung der Mitarbeiter
- Nenne 6 Standards der Evaluation. (Klausurfrage) Nützlichkeit: - Klärung der Evaluationszwecke - Glaubwürdigkeit und Kompetenz des Evaluators Durchführbarkeit: -Diplomatisches Vorgehen -Angemessenes Verfahren Fainess: -Formale Vereinbarung -Schutz individueller Rechte Genauigkeit: -Beschreibung des Evaluationsgegenstands -Beschreibung von Zwecken und Vorgehen
- Nenne 4 Entscheidungskriterien um für praktische Anwendung ein Evaluationsmodell auszusuchen. (klausurfrage) - Welche Funktion oder welches Ziel steht im Vordergrund? -Welche Ziel- und Bewertungskriterien haben die Beteiligten? - Welche Evaluationsebenen interessieren? - Welche Daten sind gewünscht? - Welche Ressourcen stehen zur Verfügung?
- Was muss bei der Konstruktvalidität von Lehrveranstaltungsevaluationen beachtet werden? (Klausurfrage) 3 Herangehensweisen: 1)CFA auf Studentenebene•RohdatenanalyseCFA auf Basis der individuellen StudentenurteileDefinition der latenten Variablen auf Personenebene•Problem:Vernachlässigung der Gruppierung von Studenten in Veranstaltungen»Verletzt die Annahme identisch verteilter und unabhängiger BeobachtungenKann mittels Intraklassenkorrelation (ICC) überprüft werdenWenn ICC ≥≥.15 haben wir zwei Probleme:»Überschätzung der Modellparameter»Unterschätzung des StandardfehlersDas ist schlecht, weil das (kurz gesagt) heißt, dass unsere Ergebnisse dann nicht aussagekräftig sind! 2)CFA auf Veranstaltungsebene•MittelwertanalyseCFA auf Basis der veranstaltungsbezogenen Item MittelwerteProblem:Individuelle Studentenurteile gehen nicht ins Messmodell ein»Vernachlässigung der Varianz der Urteile innerhalb einer VeranstaltungDas ist schlecht, weil dadurch die Zusammenhänge auf Veranstaltungseben überschätzt werden 3)Multilevel CFA•Berücksichtigung der Mehrebenenstruktur•Verwendung der Erhebungseinheit (Studentenurteile) zur Konstruktion latenter Variablen aufVeranstaltungsebene (Analyseeinheit)Entspricht der Annahme, dass:Eigenschaften der Veranstaltung Einfluss auf Studentenratings haben»Ratings derselben Veranstaltung fallen ähnlicher aus, als Ratings verschiedener VeranstaltungenStudenten als Rater das Ergebnis der LVE beeinflussen»(obwohl Ratings sich innerhalb derselben LV ähnlicher sind als zwischen LV) können die Ratings einzelner Studenten sich innerhalb einer LVE unterscheiden
- Was muss bei der Konstruktvalidität von Lehrveranstaltungsevaluationen beachtet werden? (Klausurfrage) 3 Herangehensweisen: 1)CFA auf Studentenebene•RohdatenanalyseCFA auf Basis der individuellen StudentenurteileDefinition der latenten Variablen auf Personenebene•Problem:Vernachlässigung der Gruppierung von Studenten in Veranstaltungen»Verletzt die Annahme identisch verteilter und unabhängiger BeobachtungenKann mittels Intraklassenkorrelation (ICC) überprüft werdenWenn ICC ≥≥.15 haben wir zwei Probleme:»Überschätzung der Modellparameter»Unterschätzung des StandardfehlersDas ist schlecht, weil das (kurz gesagt) heißt, dass unsere Ergebnisse dann nicht aussagekräftig sind! 2)CFA auf Veranstaltungsebene•MittelwertanalyseCFA auf Basis der veranstaltungsbezogenen Item MittelwerteProblem:Individuelle Studentenurteile gehen nicht ins Messmodell ein»Vernachlässigung der Varianz der Urteile innerhalb einer VeranstaltungDas ist schlecht, weil dadurch die Zusammenhänge auf Veranstaltungseben überschätzt werden 3)Multilevel CFA•Berücksichtigung der Mehrebenenstruktur•Verwendung der Erhebungseinheit (Studentenurteile) zur Konstruktion latenter Variablen aufVeranstaltungsebene (Analyseeinheit)Entspricht der Annahme, dass:Eigenschaften der Veranstaltung Einfluss auf Studentenratings haben»Ratings derselben Veranstaltung fallen ähnlicher aus, als Ratings verschiedener VeranstaltungenStudenten als Rater das Ergebnis der LVE beeinflussen»(obwohl Ratings sich innerhalb derselben LV ähnlicher sind als zwischen LV) können die Ratings einzelner Studenten sich innerhalb einer LVE unterscheiden
- Was muss bei der Konstruktvalidität von Lehrveranstaltungsevaluationen beachtet werden? (Klausurfrage) 3 Herangehensweisen: 1)CFA auf Studentenebene•RohdatenanalyseCFA auf Basis der individuellen StudentenurteileDefinition der latenten Variablen auf Personenebene•Problem:Vernachlässigung der Gruppierung von Studenten in Veranstaltungen»Verletzt die Annahme identisch verteilter und unabhängiger BeobachtungenKann mittels Intraklassenkorrelation (ICC) überprüft werdenWenn ICC ≥≥.15 haben wir zwei Probleme:»Überschätzung der Modellparameter»Unterschätzung des StandardfehlersDas ist schlecht, weil das (kurz gesagt) heißt, dass unsere Ergebnisse dann nicht aussagekräftig sind! 2)CFA auf Veranstaltungsebene•MittelwertanalyseCFA auf Basis der veranstaltungsbezogenen Item MittelwerteProblem:Individuelle Studentenurteile gehen nicht ins Messmodell ein»Vernachlässigung der Varianz der Urteile innerhalb einer VeranstaltungDas ist schlecht, weil dadurch die Zusammenhänge auf Veranstaltungseben überschätzt werden 3)Multilevel CFA•Berücksichtigung der Mehrebenenstruktur•Verwendung der Erhebungseinheit (Studentenurteile) zur Konstruktion latenter Variablen aufVeranstaltungsebene (Analyseeinheit)Entspricht der Annahme, dass:Eigenschaften der Veranstaltung Einfluss auf Studentenratings haben»Ratings derselben Veranstaltung fallen ähnlicher aus, als Ratings verschiedener VeranstaltungenStudenten als Rater das Ergebnis der LVE beeinflussen»(obwohl Ratings sich innerhalb derselben LV ähnlicher sind als zwischen LV) können die Ratings einzelner Studenten sich innerhalb einer LVE unterscheiden
- Nenne die Gemeinsamkeiten des diagnostischen Prozesses mit der Evaluation. (Klausurfrage) •Prozesshaftes Geschehen Dynamischer ProzessRekursiver Prozess•Ziel-und ZweckorientierungFolgt einem finalen Denkmodell•Wissenschaftliches Arbeiten Arbeiten mit wissenschaftlichen Methoden Multimodales & multimethodales Vorgehen•Nutzen verschiedener Wissensbestände sensu Kaminski •Sind an bestimmten Kriterien orientiert/sollen Gütekriterien gerecht werden •Hypothesengeleitetes Vorgehen Präzisierungsalgorithmus •Entscheidungen erleichtern, kontrollieren und optimieren •Ethische Vertretbarkeit•Durchführung durch qualifizierte Personen (Ausgebildete Evaluatoren bzw. Diagnostiker)•Querschnittsaufgaben
