Statistik 3 (Subject) / Grundbegriffe 2 (Lesson)

There are 20 cards in this lesson

Regression, Faktorenanalyse

This lesson was created by makem.

Learn lesson

This lesson is not released for learning.

  • partielle Korrelation ist die bivariate Korrelation zweier Variablen, welche mittels linearer Regression vom Einfluss einer Drittvariablen bereinigt wurden eine Drittvaeriable(z) wird aus dem Zusammenhang zwischen 2 Variablen( X & Y) statistisch entfernt (herauspartialisiert)
  • Multiple Regression dient der Vorhersage einer Kriteriumsvariablen aufgrund mehrerer Prädiktoren
  • ANCOVA Varianzanalyse über Regressionsresisuen der Einfluss einer Kontrollvariablen auf die AV wird neutralisiert vorher überprüfen wir wie bedeutsam diese Kontrollvariable für die Untersuchung ist
  • Determinationskoeffizient drückt aus, wie viel % der AV im Kriterium durch Leistungsunterschiede in den Prädiktoren erklärt werden können wenn AV Leistung darstellt gibt Überlappungsbereich der Varianzen der Prädiktoren mit dem Kriterium * 100 gerechnet in % an
  • standardisiertes ß-Gewicht ändert sich der Wert des Prädiktors um eine Sd ändert sich der Wert des Kriteriums im Durchschnitt um ß-Sd
  • unstandardisiertes ß-Gewicht ändert sich der Wer des Prädiktors um eine Einheit, ändert sich der Wert des Kriteriums durchschnittlich um b-Einheiten -> geben Änderungen um  ß-Einheiten in Y bei einer Änderung von X-Einheiten Sd an
  • Semipartialkorrelation Varianzanteil der Dritt-Variablen wird nur aus einer Variablen entfernt
  • Ziel der multiplen Regression Vorhersage vomn Personenmesswerten im Kriterium durch mehrere Prädiktoren möglichst wenig Vorhersagefehler sollen entstehen
  • Multikollinearität liegt dann vor, wenn die Prädiktoren unterseinander sehr stark korrelieren kann vorliegen, wenn trotz eines hohen ß-Gewichtes keine statistische Signifikanz erzielt wird (Standardfehler wird überschätzt)
  • Prädiktorvariable zur Vorhersage eingesetzte Variable
  • Kriteriumsvariable soll vorhergesagt werden AV
  • Regressionsrechnung ermitelt die Gerade, die den Gesamttrend aller Punkte am besten wiedergibt
  • Residuum e Differenzen von Punkten und der ermittelten Gerade, also vom beobachteten Wert und aufgrund der Geraden vorhergesagten Wert
  • ß-Gewicht der Steigung = r stellt jedoch keinen "wahren" Steigungskoeffizienten dar
  • Faktorenanalyse Das Ergebnis sind wechselseitig voneinander unabhängige Faktoren, die die Zusammenhänge zwischen den Variablen erklären datenreduziertes Verfahren
  • Faktoren der PCA (principal components analysis) wechselseitig voneinander abhängig erklären sukkzessiv maximale Varianz je höher die Variablen miteinander korrelieren, desto weniger Faktoren werden zur Aufklärung der Gesamtvarianz benötigt
  • Faktoren geben das Gemeinsame von Variablen wieder bestimmt durch Ladungen (Korrelation der Faktoren mit den Ursprungsvariablen)
  • Clusteranalyse die untersuchten Objekte werden so gruppiert, dass die Unterschiede zwischen den Objekten einer Gruppe bzw. eines Clusters möglichst gering & die Unterschiede zwischen den Clustern möglichst groß sind hierarchisch nicht-hierarchisch
  • Clusteranalyse hierarchisch jedes Objekt bildet ein eigenes Cluster man berechnet paarweise Distanzen zwischen allen Objekten & fusioniert die 2, die die kleinste Distanz aufweisen die restlichen p-1 Cluster werden erneut verglichen bis 2 zusammengefasst werden usw Ende: Alle Objekte im Cluster
  • Clusteranalyse nicht-hierchisch Objekte werden schrittweise von einem zum anderen Cluster verschoben, um sie nach einem Kriterium zu verbessern man kann jedoch nicht alle Möglichkeiten durchgehen man sucht inhaltlich plausible Anfangsposition