Statistik (Fach) / Vorraussetzungen (Lektion)

In dieser Lektion befinden sich 36 Karteikarten

sg

Diese Lektion wurde von allinspace erstellt.

Lektion lernen

Diese Lektion ist leider nicht zum lernen freigegeben.

  • Wahrscheinlichkeitsverteilung. Es gibt diskrete (abzählbare) und stetige/kont. (reelle) ZG. Die mögl. Werte bilden den Wertevorrat bzw. Merkmalraum. Um eine ZG sinnvoll zu beschreiben, muss man für jedes Ereignis die Wahrscheinlichkeit angeben => Wahrscheinlichkeitsverteilung. Hierfür wichtig: Verteilungsfunk Fx. Diese muss zwischen 0 und 1 liegen und monoton wachsend sein.
  • Diskrete Gleichverteilung Für Diskrete Größen Versuch mit m gleichwahrscheinlichen Ausgängen
  • Alternativverteilung: Diskrete Merkmale Zufallsgröße kann nur ja/nein (0,1) annehmen.
  • Binominalverteilung: Diskrete ZG bei n-maliger Durchführung wird Auftreten eines Ereignisses E gezählt; Wiederholungen beeinflussen einander nicht -> sind unabhängig.
  • Hypergeometrische Verteilung Diskrete ZG : aus Grundmenge N (A Elemente besitzen Eigenschaft) werden n Einheiten auf einmal gezogen. Kleinere Varianz als Binominalvert, weil gleichviele oder mehr Einh. geprüft -> mehr Info!
  • Geometrische Verteilung: Diskrete G Versuch solange wiederholt, bis bestimmtes Ereignis E eintritt (z.B. Würfeln bis 6), einzelne Versuchswiederholungen sind unabhängig.
  • Poisson-Verteilung: Diskrete ZG Verteilung der seltenen Ereignisse. zB Anzahl eingehender Anrufe in Zeitspanne x, Anzahl Kleesamen in Volumseinheit Saatgut, Anzahl Druckfehler auf Buchseite: Anzahl X von Eintritten von E in Zeitspanne t.
  • Stetige Gleichverteilung: Wahrscheinlichkeit hängt nur von Länge der Teilintervalle, nicht von Lage ab: Dichtefunktion ist konstant, Verteilungsfunktion stetig steigend.
  • Exponentialverteilung: Stetige ZG zB für Lebensdauerbeschreibung, Wertebereich M umfasst positive reelle Zahlen. Zusammenhang mit Poisson: wenn Anzahl X von Intervall t poissonsverteilt mit mü = lamda*t, dann ist Zeit Y zwischen zwei Ereigniseintritten exponentialverteilt! (Zerfallsgesetz)
  • Normalverteilung/Gaußverteilung: Stetige ZG Wertebereich umfasst alle reellen Zahlen, Standardnormalverteilung (0,1) hat Mittelwert 0 und Varianz 1. Symmetrisch, Lineartransformationen normalverteilter ZGn führen auch zu Normalverteilungen. VF = (X-mü)/Standardabw. wobei X = Ereignis und mü = Mittelwert
  • Logarithmische Normalverteilung: Stetige ZG hängt eng mit Normalverteilung zusammen; ZG ist logaritm. nv, wenn ihr Logarithmus ln X(mü,Varianz) verteilt ist.
  • Chiquadrat-Verteilung X2f: Prüfverteilung mit f Freiheitsgraden: Y = X21…X2f wobei X2 die ZG sind; Wertebereich sind die positiven reellen Zahlen.
  • t-Verteilung/Student-Verteilung: Stetige ZG Prüfv, Y = Z/Wurzel(V/f), mit Z = standardnv ZG, V = eine mit f Freiheitsgraden X2-verteilte ZG, beide sind unabhängig! Symmetrische Verteilung
  • F-Verteilung: stetig Prüfv, Y = (V/f1)/(W/f2), V und W sind unabhängige X2-v ZG mit f1 bzw f2 Freiheitsgraden.
  • Korrelationskoeffizient Grenzwertsatz Korr: stellt linearen Zusammenhang zwischen X und Y dar, kann nur zwischen -1 und 1 liegen, bei |1| ist linearer ZH sicher. Bei 0 kein linearer Zusammenhang -> bei NormVert sind X und Y unabhängig. GW: Grenzwertsatz: Auskunft über Konvergenzverhalten von Summenverteilungen -> meist Normalverteilt!
  • Grundlagen der schließenden Statistik Grundlage: Stichprobe von identisch verteilten und unabhängigen Beobachtungen, also eine (ein- oder mehrdim) ZG mit einer VF Fx (zB normalverteilt, poissonverteilt). Diese ZG wird n-mal unabhängig voneinander betrachtet -> Ergebnis ist eine n-große Stichprobe für die ZG. Verwendung für Parameterschätzung und Aussagenüberprüfung.
  • Maximum Likelihood Schätzung: Plausibilitätsmethode  ML-Schätzer sind asymptotisch erwartungstreu, asymptotisch effizient, und konsistent, und die Verteilung nähert sich mit wachsender Stichprobengröße an NVtl (Mittelwert 0, Varianz von X abh.) an.
  • Parameter der Normalverteilung: Mittelwert Mittelwert: ZG X ist normalverteilt, Standardabweichung entweder bekannt oder unbekannt. Vergleich zweier Mittelwerte: 2 Merkmale X, Y sind N(x,s2) verteilt und abhängig oder unabhängig. Unabhängig (häufig unterschiedlicher Stichprobenumfang) -> Varianzen entweder bekannt oder unbek. Abhängig (Differenzmethode), man betrachtet Differenzen xi – yi, wobei X-Y normalverteilt und beliebig verteilt sein kann.
  • Parameter der Normalverteilung: Varianz Varianz: normalverteilt Vergleich zweier Varianzen: zwei Merkmale X,Y sind unabhängig und N(x,s2)-verteilt! Bei zweiseitigen Tests ist cu kleiner und co größer als 1, Reihung der Stichproben muss also so festgesetzt werden, dass zu berechnende Testgröße größer als 1 ausfällt -> dann muss nur mehr mit co verglichen werden.
  • Analyse von Anteilen Schätz- und Testverfahren für Wahrscheinlichkeit eines betrachteten Ereignisses A (z.B. Antwort JA) beruhen auf relativer Häufigkeit, die sich als Mittelwert einer Stichprobe dividiert durch alternativ-verteilte ZG p ergibt. Man braucht für Konfidenzintervalle und Tests die Quantile der Binomialverteilung oder F-Verteilung. Für Anteil p gilt: Varianzen sind bekannt, p ist normalverteilt, einzelne x der Konfidenzintervalle sind nicht normalverteilt, aber unser Schätzer xA, den wir aus ihnen berechnen, ist asymptotisch normalverteilt.
  • Einfache Varianzanalyse: yij = müij + eij oder yij = mü + ai + eij y ist abhängig, e zufällig, unabhängig und normalverteilt
  • Teststatistik der einfachen Varianzanalyse Aufspaltung in Quadratsumme SSA zwischen Gruppen und eine SSE (auch FehlerSS) innerhalb. Wenn Gruppeneinflüsse groß -> SSA groß. -> je größer SSA, desto eher wird H0 abgelehnt. MS = Quotient der SS durch ihre Freiheitsgrade. Ist H0 erfüllt, sind beide SS X2-verteilt, die Statistik (SSA:f/SSE:f) ist F-verteilt.
  • Zweifache Varianzanalyse ohne Wechselwirkungen Zwefache VA ohne Wechselwirkungen yijk = mü + ai + bj + eijk mit eijk unabhängig und nverteilt. Nullhypothesen: HA a = a2 = … = 0, HB b1 = b2 = … = 0. Wenn HA zutrifft, sind SSA und SSE unabhängig, wenn HB zutrifft, sind SSB und SSE unabhängig. Wenn beide H0 zutreffen, ist Teststat F-verteilt. Große MSA deutet auf Verwerfung von HA hin (gleich für HB).
  • Zweifache VA mit Wechselwirkungen yijk = mü + ai + bj + (ab)ij + eijk wobei die Summe von (ab)i = 0 und die Summe von (ab)j = 0. Wichtig: man braucht pro Zelle mehrere Beobachtungen! Für HA und HB und HAB gilt: wenn HAB zutrifft, sind SSAB und SSE unabhängig etc. Auch hier sind die Teststatistiken (Fa, Fb, Fab) X2 verteilt, wenn alle H0s erfüllt sind. Große Werte auch hier -> deuten auf Ablehnung hin.
  • Varianztests: Bartletttest: normalverteilte Stichproben!! Stichprobenumfang nicht zu klein -> mindestens 5 n. Testgröße b ist X2 verteilt mit f Freiheitsgraden. Große Werte für b sprechen gegen H0. Hartley-Test: normalverteilte Stichproben gleichen Umfangs! Große Werte für Testgröß h sprechen gegen H0 Cochran-Test: gleiche Voraussetzungen wie Hartley-Test, Testgröße c -> große Werte sprechen für Verwerfung. Gibt es nur kleine Stichprobengrößenabweichungen, kann man den Cochran-Test trotzdem anwenden, solange man als Stichprobenumfang das harmonische Mittel n (= 1/nstichprobe 1 + … 1/nStichroben) wählt. Levene-Test: Stichproben müssen nicht normalverteilt oder gleich groß sein. Sehr robustes Verfahren, aber man benötigt Hilfsgrößen zij (= |yij – yi.|). Damit wird eine einfache Varianzanalyse durchgeführt. Große Werte der Testgröße w sprechen gegen Nullhypothese (gegen Varianzhomogenität).
  • Regressions- und Korrelationsanalyse -> Test der Unabhängigkeit, welche Verteilungsannahme? -> Test der Korrelationskoeffizienten, welche Verteilungsannahme? Korrelationskoeffizient: -1 <= rxy <= 1 Liegt er bei 0 -> kein linearer Zusammenhang; bei |1| -> vollkommener linearer Zusammenhang. Vorzeichen gibt Richtung an, also ob mit steigenden Werten von X (unabhängig) auch Y (abhängig) ansteigt (positive Korrelation) oder fällt (negative) Test der Unabhängigkeit: Annahme: X, Y zweidimensional linear verteilt. Nullhypothese: X und Y sind unabhängig voneinander. Test des Korrelationskoeffizienten: Bi-Normalverteilte Wertepaare (xi, yi), also elliptische Punktwolke -> Abweichungen bedeuten nichtlineare Beziehungen (monoton oder nichtmonoton) oder Ausreißer -> wenn Voraussetzungen nicht erfüllt (also die elliptische Punktewolke nicht existiert): Spearman-Korrelationskoeffizient (Werte nach Größe ordn).
  • Regressionskoeffizienten Zwei kontinuierliche Größen x und y -> y = a + bx + E E = Fehler, bei zB Fahrgeschwindigkeit usw wo es Abweichungen geben kann; E = a + bxFehler E muss N(0, s2) normalverteilt sein, s2 muss von x unabhängig sein.
  • Regressionskoeffizientenschätzung Unabhängige Stichproben X und Y Beste Regression ist die, bei der die Summe von a und b minimal ist und die minimalen Abstand zu allen Punkten hat -> minimale Fehler/Residuen bezeichnet (Fehler = y – yi). Es werden nur y-Fehler betrachtet, deswegen ist diese Betrachtung nicht symmetrisch! Wenn man x und y vertauscht, kriegt man andere Betrachtung. Deshalb nennt man x die unabhängige, y die abhängige Variable. Annahmen: a ist N(a, s2) normalverteilt, Schätzungen a und b sind abhängig H0: a = a0, b beliebig; für Tests von a; HA -> a nicht a0, b immer noch beliebig (analog für b)
  • Regressionskoeffizientenschätzung Regressionskoeffizienten sind unbekannt, deshalb müssen sie geschätzt werden! Unabhängige Stichproben X und Y Beste Regression ist die, bei der die Summe von a und b minimal ist und die minimalen Abstand zu allen Punkten hat -> minimale Fehler/Residuen bezeichnet (Fehler = y – yi). Es werden nur y-Fehler betrachtet, deswegen ist diese Betrachtung nicht symmetrisch! Wenn man x und y vertauscht, kriegt man andere Betrachtung. Deshalb nennt man x die unabhängige, y die abhängige Variable. Annahmen: a ist N(a, s2) normalverteilt, Schätzungen a und b sind abhängig
  • Fehlervarianz/Modellvarianz: durchschnittliche Abweichung der Messwerte von der Regressionsgerade -> Residuen müssen unabhängig, identisch verteilt und im Mittel 0 sein
  • Bestimmtheitsmaß R2 Regressionsmodellen (nicht in beliebigen Modellen!) ist R2 = rxy zum Quadrat. Gibt linearen Zusammenhang der x und y Werte wieder -> geringes R2 heißt kein linearer Zusammenhang! (aber nicht automatisch, dass ein nichtlinearer ZH vorliegt).
  • Konfidenz- und Prognoseband: Schätzung für gewisse Werte ist normalverteilt. Variabilität der Schätzung hängt von der Unsicherheit der Regressionsgeraden (also der Varianz von a und b) ab.
  • Nicht parametrische Verfahren: Rangtests 1. Rangtests: Es geht nicht um die Testgröße sondern um die Position des Wertes in der Stichprobe. Keine Verteilungsannahmen werden getroffen, aber Voraussetzung sind kontinuierliche Merkmale. Achtung: Geringere Aussageschärfe! Aber höhere Robustheit!  Wilcoxon-Vorzeichen-Rangtest: Zur Überprüfung von Hypothesen über die Lage symmetrischer Merkmale -> Verallgemeinerung von Mittelwerttests (t-Tests). Einzige Voraussetzung ist ein symmetrisches kontinuierliches Merkmal -> es gibt ein Symmetriezentrun C, das auch Median und Mittelwert. Nullhypothese: x0.5 = C0. Für den kritischen Wert t+ (siehe Formelsammlung) erwartet man einen Wert um die halbe Rangsumme, also (n*(n+1))/4. Größer -> zuviele oder zu große Abweichungen, also Median über C0, kleine auf Median unter C0.  Wilcoxon-Rangsummentest: für unabhängige Stichproben mit den stetigen Verteilungen F1 und F2: H0 -> F1(z) = F2(z). HA: Die Lokation der Verteilungen (also der Mittelwert) unterscheidet sich, obwohl die äußere Form gleich ist (HA: F1(z) = F2(z-c), mit c = Verschiebung der Lokation. Die Form der Verteilungen (symmetrisch, schief) ist egal, solange sie gleich oder ähnlich sind; die Varianzen müssen gleich sein. Gut eignen sich Stichproben mit gleicher Boxplot- und Whiskersform. Gleichmäßige Rangsumme (im Bereich von 1 bis n1+n2) bedeutet Nullhypothese stimmt; zu groß -> Werte liegen eher im oberen Bereich der Probe, zu klein -> eher im unteren -> dann trifft HA zu.  Kruskal-Wallis-Test:Alternative zur einfachen Varianzanalyse (ANOVA)! Sinnvoll, wenn Stichproben nicht normal verteilt. Direkte Erweiterung des Wilcoxon-Tests für mehr als 2 Gruppen. H0: alle k-Verteilungen sind gleich; HA: mindestens eine hat eine andere Lokation. Auch hier eignen sich Boxplots oder (für Gruppen mit unter 10 Elementen) Streudiagramme.
  • Nichtparametrische Verfahren: Vorzeichentests Speziallfall des Binominaltests (Test über Anteilsparameter) und überprüft Hypothesen, dass positive und negative Werte eines Merkmals X wahrscheinlich sind. Großer Vorteil: Verteilungsannahmen spielen keine Rolle. Verwendet wird er zur Überprüfung des Medians.
  • Nichtparametrische Verfahren: Tests auf Verteilung X2-Test: Anpassungstest -> einfachster und naheliegenster Test zur Beurteilung von Modellen (wie Wahrscheinlichkeitsverteilungen). 2 Annahmen: Die Zufallsgröße X besitzt die Wahrscheinlichkeitsverteilung-Px; der Merkmalsraum ist in disjunkte Klassen zerlegt. Nullhypothese: Px = P0, also P0 ist die Verteilung. Um das zu überprüfen, vergleicht man die beobachteten (absoluten) Häufigkeiten mit den zu erwartenden Häufigkeiten. Starke Abweichungen widerlegen H0! Große Werte der Teststatistik sprechen gegen H0. Wichtig: mindestens 5 zu erwartende Beobachtungen in jeder Klasse! Zusammengesetzter X2-Test: Ausgangssituation wie beim einfachen, nur ist H0 hier: Px ∈ {P0: 0 ∈ O}, also dass die Verteilung der durch den Parametervektor 0 beschriebenen Familie von WahrscheinlichkeitsVT angehört. Durchgeführt wird der Test wie der X2.Test. Schwierig ist die Ermittlung der Wahrscheinlichkeiten der einzelnen Klassen, durch die fehlende bestimmte Verteilung. Kolmgorov-Smirnov-Test (KS-Test): überprüft die Verteilungen VF ^F. Gleiche Ausgangssituation wie bei X2, aber die Zufallsgröße X muss kontinuierlich sein. H0: Fx = F0. Die Verteilung hängt bei zutreffender H0 nicht von der konkreten VF F0 ab und ist exakt beschreibbar -> verteilungsfreie Methode. Der Test darf nicht zu groß ausfallen. Exakte Aussagen -> bei kleinen Stichproben besser als X2-Test! Er kann wie X2 erweitert werden, dann geht aber die Unabhängigkeit verloren! Zweistichproben-KS-Test (KS-2-Test): Hier werden zwei Verteilungen überprüft, nämlich die Verteilungsfunktionen Fx und Fy der kontinuierlichen Zufallsgrößen X und Y. X ist stochastisch größer als Y, wenn es für jeden Wert t wahrscheinlicher ist, dass Y kleiner als t ist als dass X kleiner als t ist. Es gibt 3 H0: Fx = Fy; X ist stochastisch größer; X ist stochastisch kleiner.
  • Konfidenztabellen Es werden DISKRETE Variablen analysiert (nach Unabhängigkeit) Kreuztabellen: einfachster Fall, Merkmalsbereich sind natürliche Zahlen, r*c mögliche Kombinationen des multidimensionalen Merkmals (X1,X2) werden als Matrix dargestellt. Pij ist die Wahrscheinlichkeit, dass gleichzeitig für X der Wert i und für Y j beobachtet wird. H0: X und Y sind unabhängig. Mosaik-Plots: graphisches Verfahren zur Visualisierung von Datensätzen X2-Test: H0: Stichproben sind unabhängig. Trifft H0 zu, sind sie asymptotisch X2-verteilt. Pro Zelle 5+ Werte! Exakte Tests: Nachteil ist die aufwendige Bestimmung von kritischen Werten und emp. Signifikanzniveaus Vergleich diskreter Merkmale:Test nach Gleichheit der Verteilung eines Merkmals X mit c (endlich viele!) Ausprägungen, das in r Gruppen beobachtet wird. Beobachtete Häufigkeiten werden in Kreuztabellen dargestellt. H0: Verteilung in den Gruppen ist gleich. Vierfeldertafel: einfachster Fall der Kontingenztafel -> 2x2-Tafel, vereinfacht Teststatistik stark ist aber trotzdem exakter Test für Unabhängigkeit von 2 diskreten Merkmalen. -> zB X2-Test: Komponenten sind symmetrisch. Unabhängig (=H0) -> asymptotisch verteilt, 5 pro Zelle!!-> zB exakter Test nach Fisher: bei Randsummen ni. und n.j ist die Vierfeldertafel durch n11 eindeutig festgelegt; trifft H0 (Stichproben sind unabhängig) zu, sind die Stichproben hypergeometrisch verteilt. Dieser Test ist vorzuziehen, wenn X2 nicht geht, weil zu wenig Daten vorhanden sind.