Evaluation (Fach) / Metaanalyse (Lektion)

In dieser Lektion befinden sich 26 Karteikarten

Kap. 7

Diese Lektion wurde von loewi erstellt.

Lektion lernen

Diese Lektion ist leider nicht zum lernen freigegeben.

  • Arten von Übersichtsarbeiten Gepoolte Analysen (Statistische Re-analyse von gepoolten Daten aus verschiedenen Studien) Narrative Übersichtsarbeit (Qualitative Integration von Primärstudien. Hier ist die Selektion subjektiv, dh. nicht nach expliziten Kriterien) Systematische Übersichtsarbeit (explizit beschrieben und system., um Fehler zu minimieren) >> dazu gehören Meta-analysen
  • Metaanalyse Def. Zusammenfassung des Forschungsstandes durch quantitative Aggretation inhaltlich homogener Primärstudien.
  • Sinn von Metaanalysen Überblick und Beurteilung eines Forschungsgebietes Suche nach Wissenslücken > evidence mapping Generierung von Hypothesen, Planung von Primärstudien Eigenständige Forschungsstrategie
  • MA als eigenständige Forschungsstrategie Primärstufe ist nur Zwischenstufe im Forschungsprozess; Neue Bedeutung der Daten.
  • Relevanz von MA für die Praxis Evidenz einer Intervention Entwicklung von Leitlinien Evidenz-basierte Medizin/Qualitätssicherung
  • Phasen in der Entwicklung von Metaanalysen Problemformulierung (Gegenstand der Analyse) Datensammlung und -evaluation Datenanalyse und -interpretation (Datenaggregation) Ergebnisdarstellung (z. B. durch Ergebnisübersicht, Forest-Plot)
  • Problemformulierung: Fragen? - Breite der Konstrukte (wie spezifisch bzw. breit? Wie lassen sich Studien  mit verschiedenen Konstrukten vergleichen/integrieren?) - Breite der Operationalisierungen (Welche AVs werden aufgenommen? Welche Operationalisierungen, z. B. Fragebögen, Qualititative Interviews.) Problem: Wann erfassen zwei Operationalisierungen ein und dasselbe Konstrukt?
  • Umgang mit dem Problem Breite der Konstrukte? Möglich: Konstrukthierarchisierung, verschiedene Analyseebenen.
  • Möglicher Umgang mit dem Problem der Breite der Operationalisierungen Aussschluss von inadäquaten Operationalisierungen (aufgrund empirischer Befunde/Theorie) Aufnahme fraglicher Op., erfassen von Zusammenhang mit Effektstärken
  • Phase der Datensammlung Literatursuche >>> Festlegung der Datenquellen, Suchwörter, Ein- und Ausschlusskriterien, Qualität der Studien bestimmen, Publication Bias vermeiden  
  • Festlegung der Datenquellen Datenbanken, z. B. Medline, Cochrane, trial registers, graue Literatur Lit. verzeichnisse Zitierungsrecherche Kongressbeiträge Expertenbefragungen usw.
  • Umgang mit unterschiedlicher methodischer Qualität der Studien Kontrollprozeduren, z. B. mehrfache Selektion und mehrere Reviewer. Es gibt dafür viele Checklisten (Übersicht über 121 von Katrak et al >> kein Goldstandard!.) Erst Metaanalyse durchführen, wenn einige method. gute Primärstudien vorhanden Mindestqualität nicht zu hoch! Ausgeschlossene Studien qualitativ analysieren Untersuchung Zusammenhang Studienqualität-Ergebniswert Gewichtung der Studien nach Qualität
  • Publication bias - Was ist das? Studien werden eher veröffentlicht, wenn Resultate signifikant höhere Effektstärken methodisch besser konventionelle Fragestellung Autoren bekannter
  • Umgang mit Publication Bias kurzfristig im Rahmen einer Metaanalyse auch nicht publizierte Studien berücksichtigen (trial register) Funnel Plot Anteil vermutlich nicht berücksichtigter Arbeiten schätzen, mit Fail Safe N Wert vergleichen
  • Umgang mit Publication Bias - langfristig: strukturelle Veränderungen modifizierte Annahmekriterien in wissenschaftlichen Verlagen Aufbau neuer Publikationsformen, z. B. Internet-Datenbanken
  • Fail-Safe N-Wert Wie viele nicht-signifikante Studien wären nötig, um einen signifik. Gesamteffekt statistisch unbedeutend werden zu lassen?   -- je größer, desto mehr Stabilität der Metaanalyse. Wenn größer als 5 mal die anzahl der Studien plus 10, gilt Effekt der MA als gesichert.
  • Was soll bei der Datenanalyse geschehen? Aggregation der Resultate der Primärstudien. Dafür müssen die Effektgrößenmaße vereinheitlicht werden!
  • Welches ist das Universelle Effektgrößenmaß? Delta-Maß. Entspricht der Produkt-Moment-Korrelation r. Alternativ: Alle in cohens d umrechnen.
  • Was muss vor der Datenaggregation geschehen? Bestimmung der Homogenität der Effektgrößen. Sind sie schätzungen eines gemeinsamen Populationsparameters, also vergleichbar? Wenn die Effektgrößen sehr unterschiedlich sind, liegt statistische Heterogenität vor.
  • Mögliche Ursachen für statistische Heterogenität klinische Heterogenität: Variabilität in den Studienergebnissen durch verschiedene Studienmerkmale begründet (z. B. unterschiedliche Populationen) methodische Heterogenität: Variabilität durch Unterschiede in Design und methodischer Qualität (z. b. hinsichtlich Operationalisierung)
  • Umgang mit Heterogenität -Daten checken -Ausreißer ausschließen -Heterogenität explorieren Sensitivitätsanalyse Subgruppenanalyse Metaregressionsanalyse -oder keine MA durchführen
  • Homogenitätstest Chi-Quadrat, Prüfgröße Q Wenn Q signifikant, streuen die Effektgrößen stärker als zu erwarten wäre wenn sie Schätzungen desselben Populationsparameters wären.
  • Signifikanztest für den Gesamteffekt durchschnittlicher Z-Wert ist Schätzwert der wahren Effektgröße. Dieser kann auf Signifikanz getestet  und in z umgewandelt werden (standardnormalverteilt). Effekt signifikant, wenn z größer gleich 1, 65. Z ist umso größer, wenn mehr Primärstudien mit größeren Stichproben vorliegen.
  • Untersuchung von Moderatorvariablen Varianzanalytische Überprüfung der Unterschiedlichkeit in den Gruppen der Moderatorvariablen (z. B. Männer vs. Frauen). Anschließend Überprüfung der Homogenität der Studien innerhalb der Gruppen.
  • Wann können metaanalytische SEM-Modelle gerechnet werden? Wenn komplette Korrelationsmatrizen der relevanten Variablen vorliegen.  so kann theorieübergreifend MA gemacht werden.
  • Wenn keine Effektgrößen angegeben sind in der Primärstudie? Forscher um Daten bitten Alternative Aggregationsmethoden: Auszählen signifikanter Ergebnisse Binomialtest  (Anzahl signifikanter Ergebnisse auf Zufälligkeit prüfen) Vorzeichentest (Vergleich positiver und negativer Ergebnisse) Stouffer-Methode (Zusammenfassung exakter Irrtumswahrscheinlichkeiten)