Statistik (Fach) / F8 - Multiple Regression (Lektion)
In dieser Lektion befinden sich 8 Karteikarten
04_3
Diese Lektion wurde von tillba erstellt.
- Regressionsgleichung mehrere UVs y(m) = b0 + b(j)j*x(mj) + b(j)*x(mj) + e(m) y(m) = Werte der AV b0 = Achsenabschnitt b(j) = Regressionsgewicht der UVs x(mj): m=Merkmalsträger; j=UV
- Kompensation derselbe vorhergesagte ý-Wert kann durch unterschiedliche Kombinationen von x1 und x2-Werten zustande kommen
- Regressionsebene für jede Kombination von x1 und x2-Werten liegen die geschätzten ý-Werte auf einer Ebene -> die beobachteten y-Werte schwanken um diese Ebene
- Bestmmung der Regressionsgewichte für X1: b1 = b1s * s(y)/s(x1) wobei b1s das standardisierte Regressionsgewicht ist
- Multiple Korrelation R = ryý -> Korrelation der beobachteteten y-Werte mit den vorhergesagten ý-Werten
- multipler Determinationskoeffizient Verhältnis der Varianz von Ý und Y R² = r²yý = s²ý / s²y -> Anteil an der Varianz von Y, die durch alle Xj erklärt wird
- Multiple Determination als Summe von Semipartialkorrelationen zunehmend höherer Ordnung Varianzanteil von X in Y + Varianzanteil, den X2 zusätzlich zu X1 aufklärt (X1 wurde aus X2 auspartilaisiert) + Varianzanteil, den X3 zusätzlich zu X1 und X2 aufklärt (X1 und X2 wurden aus X3 auspartialisiert) -> die Summe aller Semipartialkorrelationen entspricht der multiplen Determination
- Semipartialkorrelationskoeffizient vs. Partialregressionskoeffizient Semipartialkorrelationskoeffizient: man partialisiert eine UV nur aus den anderen UVs heraus, nicht aber aus der AV Partialregressionskoeffizient: man partialisiert alle anderen Prädiktoren sowohl aus der UV als auch aus der AV heraus
