Statistik (Fach) / Woche 2 (Lektion)

In dieser Lektion befinden sich 25 Karteikarten

2. Semester

Diese Lektion wurde von ninjas29 erstellt.

Lektion lernen

Diese Lektion ist leider nicht zum lernen freigegeben.

  • Punktschätzer z.B. Stichprobe Fallzahl n=16 und davon 9 Stammzellgegner (beobachteter Wert) Punktschätzer = wir schätzen den wahren Anteil an Stammzellgegnern für die Grundgesamtheit Als Maßzahl dienen: Mittelwert oder relatives Risiko--> Wert des Punktschätzers (= geschätze Anteil) variiert zwischen den Stichproben, deshalb brauchen wir einen Bereich, der den wahren Wert in einer Grundgesamtheit mit einer bestimmten Wahrscheinlichkeit überdeckt = Konfidenzintervall (Intervallschätzung)
  • Konfidenzintervall (Intervallschätzung) Konfidenzintervall (Intervallschätzung) = ein Bereich, der den wahren Wert (z.B. Mittelwert) in der Grundgesamtheit mit einer vorgegebenen Wahrscheinlichkeit von 1-α überdeckt. Besagt generell, wie gut man schätzt!Konfidenzintervall = Kombination aus Lage- und Streuungsmaß- je schmaler das Kofidenzintervall, desto präziser die Punktschätzung- je breiter das Konfidenzintervall, desto geringer der Informationsgehalt und desto kleiner die Fallzahl Breite vom Konfidenzintervall hängt ab: - von Stichprobenumfang n--> je höher die Fallzahl n, desto höher die Schätzgenauigkeit- von Sicherheit 1-α (da in der Berechnungsformel der kritische Wert enthalten ist) - vom geschätzten Wert aus dem Punktschätzer (p mit Hausdach)Konfidenzintervall gibt also Bereich an, der bei unendlicher Wiederholdung eines Zufallsexperiments mit einer gewissen Wahrscheinlichkeit (dem Konfidenzintervall, z.B. 95%) die wahre Lage des Parameters einschließt. Wenn Konfidenzintervall z.B. 95% ist, dann überdecke ich den wahren Wert zu 95%!
  • Warum reicht p-Wert oft nicht aus, um genaue Aussage zu treffen? wenn p≤5% ist, kann die Nullhypothese abgelehnt werden Die Alternativhypothese ist somit mit einer 95% Wahrscheinlichkeit nicht zufällig - Ergebnis ist signifikant!WICHTIG! Die Signifikanz, die sich aus p-Wert ergibt, sagt aus, dass es einen gemessenen Unterschied gibt, der mit hoher Wahrscheinlichkeit nicht zufällig ist. Es sagt aber nicht aus, wie groß der Unterschied ist (auch keine Angabe über geschätzen Wert). --> hierfür: Punktschätzer und Konfidenzintervall (Intervallschätzer) Signifikant bedeutet nicht zwangsläufig, dass es auch klinisch relevant ist!
  • Testentscheidung bei Konfidenzintervall H0 wird abgelehnt, wenn  - p-Wert ≤ α- x ≥ xkrit (x = Mittelwert)-  MISSING DATA
  • Signifikanz / Relevanz Bedeutet, dass Ergebnis nicht zufällig ist (Nullhypothese kann abgelehnt werden). Bei Signifikanz besteht eine Kausalität!Ob das Ergebnis auch klinisch relevant ist, muss von einem Sachkundigen definiert werden, nicht vom Statistiker.
  • Korrelation = Zusammenhang zwischen zwei Merkmalen, Ereignissen etc.  Im Zusammenhang mit Signifikanz: signifikant bedeutet, dass das Ergebnis nicht zufällig ist --> es besteht nicht nur eine Korrelation, sondern auch eine Kausalität (Ursächlichkeit)
  • Qualitative / Quantitative Methoden der Datenerhebung Qualitative DatenGeisteswissenschaften (Idiographik)Sozialwissenschaften--> Individualität, Einzigartigkeit, subjektiv, Gefühle - Verstehen Quantitative Daten Naturwissenschaften (Nomothetik)--> allgemeingültige Gesetze, Theorien, Grundsätze, Vorhersagen - Erklären
  • Qualitative Befragung Qualitativ - Idiographik: "Menschlisches Handeln verstehen" (Reflexion, Interpretation)- Analyse und Beschreibung- Forscher weiß nur im Ansatz, wonach er sucht (offene Fragen)--> hypothesengenerierend u. rekonstruktiv--> von Empirie induktiv zu Theorieinduktiv: vom Einzelnen (Individuum; Stichprobe) auf Grundgesamtheit schließen - Studiendesign entwickelt sich erst- in ersten Phasen eines Forschungsprojekts- Forscher erhebt Daten (Kritik der Subjektivität)- Alle möglichen Formen von Interviews: Leitfadeninterview, narratives Interview, Tiefeninterview, Gruppendiskussion, offenes Interview, Beobachtung, Befragung - Grounded Theory (bereits ausgewertete Ergebnisse in nächstes Interview mit reinnehmen)- Inhaltsanalyse- Diskurs- subjektiv, individuell- kleine Fallzahl- Gütekriterien: Bestätigbar, verlässlich, glaubwürdig, nie generalisierbar! (da individuell)- Daten: TiefeNachteil / Kritik: - Forscher als "Bias", da Forscher Daten erhebt- sehr zeit- und personalaufwändig- nicht generalisierbar!--> Qualitative Methoden werden angewendet, um kaum erforschte komplexe Phänomene psychosozialer, psychologischer und soziologischer Natur zu beschreiben
  • Quantitative Befragung Quantitativ - Nomothetik - allgemeingültige Gesetze- statistische Modelle zur Erklärung, was beobachtet wird- Forscher weiß, wonach er sucht und stellt konkrete Hypothesen auf (H0 / H1)--> hypothesengeleitet - alles ist geplant- in der späten Phase eines Forschungsprojektes- Forscher erhebt Daten durch Instrumente (Geräte, Fragebögen), soll aber außenvor bleiben - Fragebogen, Test, Experiment, Akten, Datenbanken, Statistiken, Zahlen, Nummern- statistische Analyse (parametrische und nicht-parametrische Verfahren)- objektiv - große Fallzahlen- Gütekriterien: Objektivität, Reliabilität, Validität, Generalisierbarkeit (so auch Sozialwissenschaften!)- Daten effizienter: Breite- mit Daten Hypothese überprüfenNachteil: - spezifische Daten gehen verloren--> Quantitative Methoden werden angewandt, um Gesetzmäßigkeiten festzustellen, die in größeren Stichproben erforscht werden (Hypothesenprüfung)
  • Qualitative Datenerhebung: Fehlerquellen 1. suboptimale Auswahl der Datenerhebungsmethode (Fragestellung, Zielgruppe)2. Mangelnde Erfahrung des Forschers (Gefahr der Überinterpretation)Generell: da Forscher = Erhebungsinstrument --> mögliche Beeinflussung der Experimente; Forscher als "Bias"
  • Quantitative Datenerhebung: Fehlerquellen 1. Suboptimales Studiendesign (fehlende Kontrollgruppe, zu kleine Stichprobe, Stichprobe nicht repräsentativ)2. schlechte Durchführung der Studie3. falsche Anwendung der statistischen Tests4. unangemessene Interpretation der Ergebnisse (Kausalität behauptet obwohl nicht da)
  • Grundlagenforschung - systematisch- ungeklärte Fragestellungen; keine direkte Anwendung--> dienen als Fundament für weitere Fragestellungen
  • Angewandte Forschung - Untersuchungen, die auf Grundlagenforschung aufbauen - direkter Praxisbezug (deshalb auch angewandt)
  • Klinische Forschung - zur Beantwortung wissenschaftlicher FragestellungenZiel: Verbesserung der medizin. Behandlung
  • Grundlagenforschung / angewandte Forschung: benutzte Modelle Modellorganismen sind:- einfach zu züchten und zu halten- kostengünstig- wachsen schnellTransgene Mäuse (Alzheimer-Mäuse)Artfremde DNA wird ungerichtet ins Genom der Maus eingebaut Knockout-Mäuse (Gen-Knockout)Deaktivierung einer oder mehrerer Gene in den embryonalen Stammzellen der Mäuse, die in Keimbahn eingebracht werdenDrosophila (Fliege)Zur genetischen Forschung; Hedgehog- & Wnt-SignalwegZebrafischUntersuchungen zu Enwticklung und Toxikologie
  • Milgram-Experiment (unabh. Variable vs. abhängige Variable; Störvariable; Kontrollvariable) - 1960er Jahre- Lehrer (eigentl. Versuchsperson) gibt Schüler (Schauspieler) bei Fehlern vermeintlich elektr. Stromschläge - die Intensität wurde nach und nach erhöht--> Versuch die Verbrechen der NS-Zeit zu erklärenUnabh. Variable (UV)Kann systematisch verändert werden; hier: von Studienleiter ausgeübten Druck auf LehrerAbh. Variable (AV)Abhängig von UV --> wenn UV verändert, kann Veränderung hier gemessen werden;hier: Lehrer verabreicht maximalen elektr. Schlag, er ist gehorsamUV: Wenn (ich Druck ausübe) / AV: dannUV: Je (mehr Druck ich ausübe) / AV: destoStörvariable - Bsp: Tageszeit, AlterEinflüsse die nicht eliminiert werden können, z.B. Einfluss der Tageszeit - abends müder als morgens, somit Lehrer gehorsamer)--> müssen in der Auswertung herausgerechnet werdenKontrollvariable - Bsp: GesundheitHat Einfluss auf AV; wird konstant gehalten; kann auch als UV eingesetzt werden
  • Schwierigkeiten bei der Untersuchung von menschl. Erleben und Verhalten (Experiment) - mehr Einflüsse als bei Laborexperiment, dadurch schwierig replizierbar ("Reliabilität")- menschl. Erleben /Empfinden nur schwer quantivizierbar (zählbar); daher häufig qualitative Erfassung- ehische Barrieren: 1. Deklaration von Helsinki (Deklaration ethische Grundsätze)2. Einverständnis durch Ethikkommission3. Einverständnis der Probanden - informed consent (informierte Einwilligung) --> setzt voraus, dass Studienteilnehmer alles versteht und freiwilligt zustimmt!Ethische Prinzipien:- wie groß Erkenntnisgewinn?- wie sieht Risiko-Nutzen-Verhältnis für individuellen Studienteilnehmer aus?- Unabhängige Begutachtung- Validität (Gültigkeit)
  • Definition und Vorteil von Randomisierung Randomisierung- Zufällige Zuweisung- Stichprobe in zwei Gruppen--> bei RCT (Interventions- und Kontrollgruppe): immer randomisiert (sonst Matching)Vorteile: - alle Störgrößen (auch unbekannte) werden in beiden Gruppen gleichmmäßig verteilt--> sichert Strukturgleichheit, schafft gleiche Versuchsbedingungen und schließt Verzerrung durch Bias oder Confounder ausRandomisierung = Voraussetzung für Verblindung
  • Paradigmenwechsel nach Kuhn Paradigmenwechsel = phasenhafte Veränderung von Fragestellungen Paradigma = konkrete Problemlösung hinsichtlich einer Fragestellung, die die Fachwelt akzeptiert hatParadigmenwechsel (nach Kuhn): Im aktuellen Paradigma werden Anomalien entdeckt, die zu einer wissenschaftlichen Revolution führen. Diese führt dazu, dass sich ein neues Paradigma einer Normalwissenschaft etabliert. inkommensurabel = nicht messbar
  • Kontingenz Häufigkeit bzw. Grad der Wahrscheinlichkeit des gemeinsamen Auftretens zweier Sachverhalte, Merkmale --> Möglichkeit und gleichzeitige Nichtnotwendigkeit
  • Wie entsteht Wissen (Kant, Popper, Rheinberger, Kuhn, Fleck) 1. Context of Discovery (Wie macht Experiment "Neues")Kant = Klassische, positivistische Position- Fragestellung, dann Experiment--> Experiment liefert positives Wissen und dient der VerifikationPopper = relativistische Position- Experiment kann keine Theorie bestätigen, sondern sie nur widerlegen (an Erfahrung scheitern)--> Experiment dient der Falsifikation Rheinberger- Experiment als Maschine zur Herstellung von Zukunft2. Context of Justification (Wie kommt das "Neue" in die Welt)Kuhn- Paradigma der Normalwissenschaft, Anomalien Fleck- Denkkollektiv wird durch einen Denkstil zusammengehaltenDenkstil: gerichtetes Wahrnehmen; legt fest, was als Wahrheit gilt- Experiment ist offen--> generell: Wissen aus Experimenten (Naturwissen) = sozial bedingt!
  • Publikationsprozess (vom Datensatz zur Veröffentlichung) Publikation (= paper) von einem o. mehreren Autoren1. Fragestellung 2. Literaturrecherche --> Hypothese3. Primärdaten (Messergebnisse) und Sekundärdaten (Auswertung dieser Ergebnisse)--> Diskussion mit Kollegen4. Auswahl des Journals (wo es veröffentlicht werden soll)5. Einsenden eines Coverletters (um Publikation zu erzielen)6. Antwort von Editor (ja, nein, vielleicht)--> bei vielleicht: 7. Peer Review: Gutachter geben Empfehlung an Editor bzgl. EntschiedungsfindungPeer ReviewBegutachtung durch Fachkollegen / andere Wissenschaftler (Referees)Aufgabe: Bedeutung u. Interpretation von Ergebnissen einordnen; Qualität der paper kontrollieren und verbessern; Fehlverhalten aufdeckenCross ReviewReferees bekommen Einblick in die Gutachten anderer Referees8. Autor muss paper ggf. korrigieren (point to point Antworten)9. Final Decision--> Veröffentlichung bei Wissenschaftsverlag, in Fachzeitschriften; auch der Name des Editors und der Referees wird veröffentlichtPrüfungsfrage: 1. Welche Aussagen können herangezogen werden, um wissenschaftliche Informationen kritisch u. sinnvoll zu beurteilen?Antwort: Veröffentlichung nach einem Peer Review Verfahren u. mehrfache Zitierung durch andere Wissenschaftler.2. Welche Aussage trifft für den Publikationsprozess in einem Wissenschaftsjournal zu?Antwort: Bei den Druckfahnen (den sogenannten proofs) müssen die Autoren den druckfertigen Text u. Abbildungssatz ein letztes Mal auf Richtigkeit überprüfen. 
  • Qualitative Erhebungsmethoden (Leitfadeninterview, narratives Interview, Gruppendiskussionsverfahren, Beobachtung) Leitfadeninterview = häufigste Form- offene Einstiegsfrage- Interview mit gewissem Leitfaden- auch zwischendrin ein paar Fragen (da etwas Vorwissen)- nicht so biografisch wie narratives InterviewNarratives Interview- sehr biografisch- Befragte erzählt Lebensgeschicht ohne unterbrochen zu werden- Interviewer in der Rolle des Zuhörers(z.B. Auswirkungen von Trauma, Krankheit auf das gesamte Leben)Gruppendiskussionsverfahren- Kommunikation in einer Gruppe(teilnehmende) Beobachtung- Forscher Teil des Untersuchungsfeldes  - versucht aber keinen Einfluss zu nehmen- geschulte Beobachtung(z.B. Forscher eingeschleust als Pflegekraft in Psychatrie)
  • Induktiv induktiv: vom Einzelnen (Individuum; Stichprobe) auf Grundgesamtheit schließen--> Menschliches Handeln verstehen1. Ausgehend von Empirie erfolgt Theoriebildung induktiv (Qualitative Methode)2. Auf Grundlage dieser Theorie erfolgt Entstehung einer Hypothese deduktiv (Quantitative Methode)
  • Deduktiv deduktiv: Aus bekannter Theorie Hypothese herleiten (vom Allgemeinen zum Konkreten); Hypothese wird durch Empirie überprüft--> Daten messen 1. Ausgehend von Empirie erfolgt Theoriebildung induktiv (Qualitative Methode)2. Auf Grundlage dieser Theorie erfolgt Entstehung einer Hypothese deduktiv (Quantitative Methode)