Methoden Datenanalyse (Fach) / Methoden (Lektion)

In dieser Lektion befinden sich 90 Karteikarten

Methoden Datenanlayse

Diese Lektion wurde von elmanito erstellt.

Lektion lernen

  • Def. Methodologischer Falsifikationismus Besagt, dass sich Gesetzesaussagen nicht verifizieren (bestätigen) lassen, aber durch ein einziges Beispiel widerlegen lassen. logische Asymmetrie von Verifikation und Falsifikation!
  • Korrespondenztheorie der Wahrheit als regulative Idee Die Aussage ist genau dann wahr, wenn sie mit der Realität übereinstimmt
  • konsequenter Fallibilismus Besagt, dass unser Wissen ist grundsätzlich fehlbar ist und somit eine sichere Begründung nicht möglich ist.
  • Die vier Adäquatsheitbedingungen einer HO Erklärung ganz ausgeführt Folgerungsbedingung: Ableitung vom Explanans zum Explanandum muss formal korrekt sein. Gesetzesbedingung: Explanans muss mind. ein gültiges Gesetz enthalten Signifikanzbedingung: Explanans muss empirisch beobachtbar sein-->Problem hierbei manchmal das Korrespondenzproblem, Lösung: Operationalismus, Bilaterale Reduktionssätze Wahrheitsbedingung: Explanans muss der Wahrheit entsprechen                      gängige Wahrheitstheorien sind: Korrespondenztheorie: Aussage ist dann wahr wenn sie mit der Realität übereinstimmt Kohärenztheorie: Aussage ist wahr, wenn sie logisch widerspruchsfrei ist Konsenstheorie: wahr ist worüber in einem Diskurs ein Konsens erzielt werden konnte
  • Validität Gültigkeit eines Versuchsergebnisses Ausmaß, in dem ein Messinstrument wirklich das Konstrukt misst, das es messen soll Inhaltsvalidität: wenn ausgewählte Items das zu messende Konstrukt adäquat repräsentieren Kriteriumsvalidität: Ausmaß in dem Messungen des Konstrukt mit Messungen anderer relevanter Konstrukte (Außenkriterium) korreliert Konstruktvalidität: Ausmaß, in dem das von Messinstrumenten erfasste Konstrukt mit möglichst vielen anderen Variablen in theoretisch begründbaren Zusammenhängen steht und hieraus Hypothesen ableitbar sind, die sich empirisch bewähren.
  • Reliabilität Zuverlässigkeit einer Messung Ausmaß, in dem die Ergebnisse eines Messinstruments frei von zufälligen Messfehler ist, dh. bei einer erneuten Befragung unter gleichen Umständen würde das gleiche Ergebnis rauskommen. Bsp: reliable Frage: wieviele  Mitarbeiter hat ihre Abteilung?geringe reliabilitätsfrage: wieviele teamfährige Mitarbeiter hat ihre Abteilung?
  • Dimensionalität ist eine vorraussetzung für.. -die Entwicklung eines validen(geeigneten) Messinstruments -die Beurteilung der Reliabilität (Zuverlässigeit) der Messungen
  • Was für Designs gibt es? (4) Vor-experimentelles Design Experimentelles Design Quasi-experimentelles Design Ex-post-facto Design
  • Form deduktiv nomologische Aussage Explanans:Allg. Aussage (Gesetz)Randbedingung 1Randbedingung 2___________________Explanandum: Endergebnis
  • formatives Messmodell formativ: quasi die notwendige Bedingung für Konstrukt -Kausalität von Indikatoren zum Konzept-Indikatoren definieren Merkmale des Konzepts-Veränderungen bei den Indikatoren verursachen Veränderungen des Konzepts-Indikatoren müssen nicht austauschbar sein-Indikatoren müssen nicht homogen sein -Verzicht auf einen Indikator kann Konzept inhaltlich verändern DAS KRITERIUM DER INTERNEN KONSISTENZ SPIELT BEI DEN FORMATIVEN INDIKATOREN KEINE ROLLE Beispiele: Jobzufriedenheit, Unternehmenserfolg
  • reflektives Messmodell (6) reflektiv: quasi die Folge des Konstrukts Kausalität vom Konzept zu Indikatoren Indikatoren sind Manifestationen des Konzepts (machen es sichtbar) Veränderungen bei den Indikatoren veränderungen NICHT das Konzepts Indikatoren sind AUSTAUSCHBAR Indikatoren müssen HOMOGEN sein Verzicht auf einen Indikator verändern das Konzept inhaltlich NICHT
  • Was ist die Varianz innerhalb der Gruppe und wie interpretiert man sie? Fehlervarianz Also die Abweichungen der einzelnen Messwerte innerhalb der einzelnen Gruppen vom jeweiligen Gruppenmittelwert -->sie sollte also möglichst klein sein!
  • Cronbachs Alpha Berechnung Maß der internen Konsistenz                     (K )          (Summe von allem was unterhalb der Diagonale ist)           a=    (K-1)   *     (Das obere+Diagonale) (K/K-1) * (Summe unterhalb Diagonale *2 /Summe unterhalb Digonale *2+ Summe Diagonale)
  • 4. Grundlage KR: Methodologischer Falsifikationismus Gesetzesaussagen lassen sich nicht verifizieren (bestätigen) aber durch ein einziges Gegenbeispiel widerlegen. Logische Asymmetrie von Verifikation und Falsifikation! Dadurch werden nach und nach falsche Aussagen eliminiert.
  • Probleme des Quasi-experimentellen Designs nicht vergleichbarkeit der Gruppen (selbstselektion) systematischer Ausfall von Probanden Regressionseffekt eingeschränkte Kontrollmöglichkeit von Drittvariableneffekte O X OO  - O OOOXOOOOOO-OOO
  • Probleme beim Experimentellen Designs Problem der externen Validität der geprüften Zsmhänge Reakitivität Hoher Aufwand bei der simultanen Prüfung komlexer Zsmhänge Verzerrte Auswahl wenn Randomosierung fehlgeschlagen ist Randomisierung aus praktischen/ethischen Gründen oft nicht möglich
  • Ex-post-facto Design und die Probleme Bildung mind. 2 experimental Gruppen erst NACH der Datenerhebung, zuordnung geschieht NICHT zufällig (also keine Randomisierung) Problem:Kontrolle von Störfaktoren erfolgt erst nachträglich auf statistischem Wege
  • Interpretation t-test wenn t Dach GRÖßER ist als t* wird Ho verworfen
  • 2. Grundlage des KR: Korrespondenztheorie der Wahrheit als regulative Idee Aussage ist genau dann wahr, wenn sie mit der Realität übereinstimmt
  • 3. Grundlage des KR: Konsequenter Fallibilismus geht davon aus, dass unser theoretisches Wissen grundsätzlich fehlbar ist & somit eine sichere Begründung nicht möglich ist
  • 1. Grundlage des KR: kritischer (hypothetischer Realismus) Es gibt nur eine strukturierte Realität die unabhängig vom menschl. Bewusstein existiert und die wir aufgrund unseres begrenzten Wissen gar nicht richtig erkennen können. Aussagen über diese Realität haben also nur hypothetischen Charakter.
  • Gängige Wahrheitstheorien (3) Korrespondenztheorie der Wahrheit: Aussage ist dann wahr wenn sie mit der Realität übereinstimmt Kohärenztheorie der Wahrheit: Aussage ist wahr, wenn sie logisch widerspruchsfrei ist Konsenstheorie der Wahrheit: wahr ist worüber in einem Diskurs ein Konsens erzielt werden konnte
  • Voraussetzungen für die Anwendung von Cronbachs Alpha Eindimensionalität Parallele oder tauäquivalente Messung: Verletzung führt zu Unterschätzung der Reliabilität keine Unnütze Itemredundanz: Verletztung erhöht Inter-Item Korrelation und damit Cronbachs Alpha, OHNE inhaltsvalidität zu erhöhen
  • Zusammenfassung d. kritischen Rationalismus Wir haben ein unvollkommenes und teilweise falsches Wissen. Daher müssen wir die falliben Theorien immer kritisch hinterdenken und nach und nach Verbessern z.B. mit der Falsifikation.
  • Klumpenstichprobe Klumpenstichprobe = einfache Zufallsauswahl zusammengefasster Elemente (zB Schulen) Alle Klumpenelemente werden für die Datemerhebung herangezogen (in dem Fall Schüler)
  • Zentrales Problem der Klumpenstichprobe Problem des Klumpeneffekts, dh. ungenauere Schätzungen als bei einfachen Zufallsauswahlen Ungenauigkeit der Schätzungen umso größer je geringer die Zahl der Klumpen je größer die Klumpen relativ zur Population je homogener die Elemente innerhalb des Klumpens je heterogener die Elemente verschiedener Klumpen
  • Sinn und Zweck der Varianzanalyse Um herauszufinden, ob eine unabhängige Variable einen Einfluss auf eine abhängige Variable hat bzw. ob sich zwei oder mehr GruppenMW voneinander unterscheiden.
  • Beispiel Varianzanalyse mit drei Gruppen Hat die Präsentation verschiedener Filme einen Einfluss auf den Agressivitätsindex? Unabhängige Variable: Filmpräsentation Abhängige Variable: Agressivitätsindex Drei Gruppen: normale Gewaltszenen, verkürzte Gewaltszenen, Kontrollgruppe ohne Gewaltszenen
  • Was spricht dagegen, statt VA mehrere t-tests durchzuführen? Wenn man mehr als zwei Stichproben hat nimmt man die Varianzanalyse, da sich bei der Berechnung mehrerer t-Tests auch der Alpha Fehler aufaddiert.
  • Voraussetzungen/Annahmen der Varianzanalyse (3) unabhängige Stichproben Die Gruppen müssen eine Normalverteilung aufweisen Varianzhomogenität
  • Def. Post Hoc Tests Posthoc-Analysen sind paarweise Vergleichsprozeduren, mit denen nach einem signifikanten Ergebnis des globalen Tests (F-test/Varianzanalyse) durchsog. multiple Mittelwertsvergleiche nach signifikanten Unterschieden zwischen den einzelnen Faktorstufen gesucht werden kann. Bsp. eines Posthoc-Verfahren, der sogenannte Tukey-Testähnelt t-Test, hält aber Fehlerniceau konstant nahe 5%
  • Nützliche und Unnütze Redundanz Nützliche Redundanz: Worte und Grammatik werden so variiert, dass der inhaltliche Geltungsbereich jweils unterschiedlich angesprochen wird Unnütze Redundanz: Triviale (überflüssige) Variationen in der Wortwahl und der Grammatik
  • Folgen wenn unnütze Redundanz vorliegt Erhöhung der durchschnittl. Inter-Item-Korrelation bzw. der internen Konsistenz ohne Erhöhung der Inhaltsvalidität Hervorrufen von korrelierter Messfehler, bzw. eigenständiger Faktoren Eliminierung von Items, die inhaltlichen Geltungsbereich auf andere Weise ansprechen würden.
  • Vorteilhaftigkeit von Multi-Item Skalen höherer Informationsgehalt aufgrund der Benutzung mehrer Items die den verschiedenen Facetten eines zu messenden Konzepts gerechter werden. feiner differenzierte Messwerte höhere Reliabilität (Weil der Messwerts kaum abhängig von der Reaktion auf ein einzelnes Item ist) ermöglicht Kontrolle von Messfehlern
  • Wann ist der F-Test robust gegen Verletzungen? bei gleich großen Gruppen
  • C_OAR_SE In einer Definition mümssen das Objekt und der Beurteile gegeben sein
  • Was heißt Selbstselektion? Und das Problem dabei Selbstselektion heißt, dass sich die Versuchsteilnehmer selbst entscheiden können, ob sie in die Experimental oder Kontrollgruppe gehen. Problem: Kann dazu führen, dass sich die beiden Gruppen in einem Drittfaktor Z unterscheiden, der sowohl mit dem Treatment  X auch auch mit der Wirkung O korreliert ist. Zwei Erscheinungsarten der Selbstselektion: scheinkorrelation und unterdrückte Korrelation.
  • 1. Erscheinungsform der Selbstselektion: Scheinkorrelation Zb Sollte der Zsmhang zwischen der Teilnahme an einem Kurs (das Treatment X) und den Beschäftigungschancen (Wirkung O) gezeigt werden. Nicht berücksichtig wurde hierbei nun die intervenierende Variable, nämlich die Vorqualifikation der Teilnehmer.
  • 2. Erscheinungsform der Selbstselektion: unterdrückte Korrelation Es kann eine Kausalbeziehung zwischen X und  O existieren, obwohl die Assoziation zwischen X und O null ist. Dies ist der Fall der sogenannten unterdrückten Korrelation. Hierbei wird eine tatsächlich existierende Kausalbeziehung durch eine Drittvariable verdeckt und kommt erst bei Konstanthaltung der Drittvariablen zum Vorschein.
  • Kontrollmöglichkeiten für die Verzerrung der Selbstselektion oder systematischem Ausfall Paarweise Matching/Gruppenmatching Anwendung von Prozentsatzdifferenz Analyse Zeitreihenexperiment
  • Overcoverage Objekte gehören zur Auswahlgesamtheit aber nicht zur Grundgesamtheit Es kann passieren, dass die Auswahlgesamtheit aus der die Stichprobe gezogen wird, Objekte (in dem Fall Austauschstudenten) enthält, die nicht zu der im Untersuchungsdesign definierten Grundgesamtheit gehören. (z.B. wenn man untersuchen will, wie zufrieden die deutschen Studenten an der Uni sind und ausversehen ein paar Austauschstudenten mit befragt hat)
  • Undercoverage "Zielpopulation" Objekte gehören zur Grundgesamtheit die untersucht werden soll, aber nicht zur Auswahlgesamtheit z.B. wenn man wissen will wie zufrieden die Mitarbeiter in der Abteilung Marketing bei Pizza Fresh sind aber z.B. ein paar der Mitarbeiter gerade auf Geschäftsreise sind
  • 3. Validitätsform: Konstruktvalidität Ausmaß, in dem das von Messinstrumenten erfasste Konstrukt mit mögl. vielen anderen Variablen in theoretisch begründbaren Zusammenhängen steht und hieraus Hypothesen ableitbar sind, die sich empirisch bewähren.
  • Drei Arten von Validitätsformen Inhaltsvalidität Kriteriumsvalidität Konstruktvalidität
  • 2. Validitätsform: Kriteriumsvalidität Ausmaß, in dem Messungen des Konstrukts mit Messungen anderer relevanter Konstrukte korreliert. (Also mit den Außenkriterien)
  • Poppers Vorstellung von wissenschaftlichem Fortschritt Wissenschaftler sollen Hypothese mit hohem Informationsgehalt konstruieren diese dann mit einer Vielzahl von empirischen Prüfungen in unterschiedlichen Situationen testen Die hypothesen di den Falsifikationsversuchen widerstehen werden (vorläufig) beibehalten, die anderen augesondert
  • Probleme des Vorexperimentellen Design keine vergleichsgruppe (varianz =0) Reifungsprozesse können nicht identifiziert werden
  • Probleme des experimentellen Design externe Validität der geprüften Zusammenhang Reaktivität Hoher Aufwand bei der simulanten Prüfung komplexer Zusammenhänge Randomisierung aus praktischen oder ethischen Gründen häufig nicht möglich
  • Empirische Sätze: Basissatz (nach Popper) Basissätze sind intersubjektiv überprüfbare Existenssätze, die zur Überprüfung einer wissenschaftlichen Theorie dienen können. BeispielTheorie (Allsatz): Alle Schwäne sind weiß.Existenzsatz: Es gibt keinen Schwan, der nicht weiß ist.Basissatz: Am 01.01.1980 wurde in Wiesbaden eine Gruppe von 36 ausschließlich weißen Schwänen beobachtet. ➛ Theorie bewährt!Basissatz: Am 01.12.2010 wurde Elbsee ein schwarzer Schwan gesehen. ➛ Theorie falsifiziert! .
  • Warum ist der kritische t-Wert bei einem einseitigen Test kleiner als bei einem zweiseitigen Test? Ein einseitiger Test wird angewendet, wenn man schon vorher bestimmte Informationen über den Testverlauf hat und somit die Akzeptanzregion bereits im vorneherin begrenzen kann. Dadurch wird natürlich auch die Region der Zurückweisung halbiert und die Folge ist ein kleinerer Wert als bei einem zweiseitigen Test.