Soziologie (Fach) / Empirische Methoden der Soziologie (Lektion)

In dieser Lektion befinden sich 157 Karteikarten

Empirische Methoden WiSe 1819

Diese Lektion wurde von keef erstellt.

Lektion lernen

  • Paralleltestmethode Verwendung zweier Messinstrumente, die dieselbe Dimension messen Korrelation der Messwerte von Instrument 1 zum Zeitpunkt A und Messinstrument 2 zum Zeitpunkt A
  • Maße der internen Konsistenz Ein Messinstrument bestehend aus mehreren Indikatoren (Items), die dieselbe Dimension messen, kann als wiederholte unabhängige Messung interpretiert werden
  • Validität Gültigkeit Ausmaß, in dem das Instrument auch das misst, was gemessen werden soll Korrelation der beobachteten Werte und der Messung eines Außenkriteriums
  • Zusammenhang von Validität und Reliabilität Ein Instrument kann reliabel sein, ohne valide zu sein Reliabilität ist eine Vorraussetzung für Validität Je weniger zufällige Messfehler, desto reliabler; Je weniger systematische Messfehler, desto valider
  • Inhaltsvalidität alle Aspekte der Dimension, die gemessen werden sollen, werden mit Items berücksichtigt Bsp.: Messung vom Konstrukt "Problemlösungskapazität" über Test der Rechenfähigkeiten misst ist nicht inhaltsvalide, da andere Aspekte der Problemlösungskapazität ausgeblendet werden Problem: Es müssen theoretisch alle potenziellen Aspekte bennenbar sein (Definierbarkeit des Indikatorenuniversums) Es existieren keine objektiven Kriterien für Inhaltsvalidität -> Inhaltsvalidität als Leitidee für Konstruktion eines Messinstruments
  • Kriteriumsvalidität Korrelation des gemessenen Werts mit dem Wert eines Außenkriteriums Vorhersagevalidität: Bestätigung von Voraussagen einer Messung durch spätere Messung Übereinstimmungsvalidität: Beurteilung der Messung anhand eines gleichzeitig erhobenen Kriteriums
  • Konstruktvalidität Aus dem theoretischen Konstrukt werden Aussagen über Zusammenhänge mit anderem Konstrukt gemacht, die empirisch nachweisbar sind Konvergenzvalidität: Ähnlichkeit verschiedener Operationalisirungen eines Konstrukts -> Messungen eines Konstrukts müssen stark zusammenhängen Diskriminanzvalidität: Unterschiedlichkeit von Operationalisierungen verschiedener Konstrukte à Zusammenhänge zwischen Messungen verschiedener Konstrukte müssen schwächer sein als Zusammenhänge zwischen Messungen desselben Konstrukts
  • Index Zusammenfassung von mehreren Einzelfaktoren zu einer Variablen Anwendungsbereich: v.a. wenn mehrere Einzelfaktoren unterschiedliche Gebiete eines theoretischen Konstrukts ansprechen Grundsätzliche Fragen o   Welche Dimensionen sollen in den Index eingehen? o   Wie sollen die Dimensionen kombiniert werden? Bsp.: Bildung, Einkommen und Berufspositionen werden zu soziale Schicht zusammengefügt
  • Dimensionen des Index (1. Schritt der Indexbildung) Bilden mehrdimensionalen Raum keine Bestätigung, dass  - alle relevanten Dimensionen berücksichtigt sind  - alle berücksichtigten Dimensionen relevant sind Sonderfall Typologie: mehrdimensionale Tabelle bei kategorialen Merkmalsausprägungen Typen sind spezifische Merkmalskombinationen
  • Kombination der Dimensionen (2. Schritt der Indexbildung) Zusammenfassung der bestimmten relavanten Dimensionen indem Indexwerten bestimmte Merkmalskombinationen zugewiesen werden. -> Abbildung eines mehrdimensionalen Merkmalraumes in eine eindimensionale Indexvariable, d.h. Reduktion des Merkmalraumes Begründung für Indexreduktion funktionale Reduktion: bestimmte Merkmalskombinationen sind nicht oder nurselten vorhanden arbiträre numerische Reduktion: Durch unterschiedliche Gewichtung derDimensionen ergeben sich gleiche Indexwerte trotz unterschiedlicherMerkmalskombination pragmatische Reduktion: theoretisch gerechtfertigte Zusammenfassung
  • Additiver Index additive Kombination der Dimensionen: Aufsummieren der Indikatorwerte x1i+x2i+...+xki mit k Dimensionen und i Beobachtungseinheiten Annahmen Einzeldimensionen wirken jeweils unabhängig auf den theoretischen Sachverhalt(Ausgleich zwischen Dimensionen möglich) gleicher Wertebereich der Indikatoren (ansonsten gehen Indikatorenungleichgewichtig in Index ein)
  • gewichteter additiver Index Indikatoren gehen mit unterschiedlichem Gewicht in den Summenscore ein zur Berücksichtigung unterschiedlicher theoretischer Bedeutungen einzelner Indikatoren a1x1i+a2x2i+...+akxki Mit k Dimensionen, i Beobachtungseinheiten und a Gewichtungsfaktoren Empfehlung (Schnell et al 2008:167): Gleichgewichtung, unterschiedlicheGewichtung nur bei starken theoretischen Gegenargumenten
  • Multiplikativer Index multiplikative Kombination der Dimensionen, so dass der Indexwert minimal istbei Abwesenheit eines einzigen relevanten Merkmals x1i*x2i*...*xki mit i Beobachtungseinheiten und k Dimensionen Einzeldimensionen wirken (nur) gemeinsam auf den theoretischen Sachverhalt(Ausgleich zwischen Dimensionen nicht möglich) nimmt ein Indikator den Wert Null an, erreicht der Index sein Minimum
  • Skalierungsverfahren Methode von Skalenkonstruktion aus einer Itembatterie, um eine einzelne latente Varibale zu ermittlen (häufig Einstellungen) Skalen werden v.a. zur Messung von Einstellungen (=latente Variablen) gewonnen,wobei als Indikatoren (=manifeste Variablen) beobachtbares Verhaltenherangezogen wird im Sinne der Item-Antworten Ziel: Strukturgetreue Abbildung der latenten Variable
  • Vergleich Index und Skala Gemeinsamkeiten - Zusammenfassung mehrerer Items zu einer Variablen - Auswertungsverfahren, keine Datenerhebungs- oder Messverfahren - Skalen sind Spezialfälle von Indizes, wobei jedes Skalierungsverfahren spezifischeAnforderungen an ein Item stellt Unterschiede - Skalierungsverfahren erlauben empirische Überprüfung, ob ein Item Bestandteil derSkala ist oder nicht -> Möglichkeit der Auswahl geeigneter Indikatoren bei Skalen - bei Skalierungsverfahren kann sich anhand der erhobenen Daten herausstellen, dasskeine Messung im Sinne des Skalierungsverfahrens erfolgte
  • Itemschwierigkeit Anteil von Ablehnungen zu einem Item Je schwieriger ein Item, desto weniger Personen können zustimmen Einfaches Item ist allgemeiner formuliert als ein schwieriges Item und trifft daherauf mehr Zustimmung als ein schwieriges Item
  • Itemcharaktersitika Itemschwierigkeit, und damit Zustimmungswahrscheinlichkeit, eines Items ist von der latenten Variable abhängig; unterschiedliche Ausprägungen der latenten Variable (z.B. bestimmte Einstellung zu einem Thema) bewirken unterschiedliche Antworten auf ein Item. Monotone Itemcharakteristika: Je stärker die latente Variable ausgeprägt ist, desto höher ist die Zustimmungswahrscheinlichkeit
  • Likert Skala Sammlung einer großen Zahl von Items, die die interessierende Einstellungwiedergeben Befragte geben jeweils Zustimmung/Ablehnung auf bipolarer Rating-Skala an -> Kontrollelement: unterschiedlich gepolte Items Annahme: monotone Itemcharakteristiken Berechnung des Skalenwerts als Summe der Rohwerte (Summenscore) (ACHTUNG:„Drehung“ gepolter Items nötig)
  • Itemanalyse Ein Item ist ungeeignet, wenn dieses einen zu hohen oder zu niedrigenSchwierigkeitsgrad aufweist, d.h. von nahezu allen Befragten abgelehnt wird, oderdem nahezu alle Befragten zustimmen Ein Item ist ungeeignet, wenn dieses von Personen mit unterschiedlichenEinstellungen ähnlich beantwortet werden -> fehlende Trennschärfe in Bezug aufdas interessierende Konstrukt
  • Wann Vollerhebung oder Teilerhebung? Werden alle Elemente der Grundgesamtheit erhoben? ja: Vollerhebung nein: Teilerhebung -> Werden die Elemente nach festen Regeln ausgewählt? ja: basieren die Regeln auf einem Zufallskonzept? ja: Zufallsauswahl nein: Bewusste Auswahl nein: willkürliche Auswahl Eine Vollerhebung ist angebracht, - falls der Umfang der angestrebten Grundgesamtheit klein ist- falls starke Heterogenität in Bezug auf das interessierende Merkmal
  • Deskriptive Statistik Reduktion von  Informationen mit dem Ziel, die Daten einer Stichprobe oder Grundgesamtheit  zu charakterisieren und zusammenfassend zu beschreiben
  • Induktive Statistik Schließen von Eigenschaften einer Stichprobe auf  die entsprechenden Charakteristika der Grundgesamtheit (=Repräsentationsschluss/statistische Inferenz) - Generalisierung von deskriptiven Befunden (von der Stichprobe auf die Grundgesamtheit) - Aussagen über die (Un-)Sicherheit des Schlusses von der Stichprobe auf die Grundgesamtheit mit Hilfe der Wahrscheinlichkeitstheorie möglich Bsp: Rückschluss vom  Mittelwert x eines Merkmals einer Bevölkerungsstichprobe auf den wahren Mittelwert µ in der Gesamtbevölkerung
  • Vorteile Vollerhebung Parameter (z.B. Mittelwert) einer Grundgesamtheit sind mittels deskriptiver Statistik ermittelbar. Daher ist keine statistische Inferenz wie bei Stichproben notwendig und somit besteht keine statistische Unsicherheit über den Parameterwert.
  • Vorteile Teilerhebung +Teilerhebung schneller und kostengünstiger +Teilerhebung unter Umständen weniger fehleranfällig wegen der besseren Ausbildung des Erhebungspersonals, größeren Kontrollmöglichkeiten der Erhebung und besseren Möglichkeiten der Elimination von Datenfehlern +Im Falle „destruktiver Tests“ sind nur Stichproben sinnvoll (Tests, die nach Fehlern suchen, Untersuchungsobjekt ist nur einmal nutzbar)
  • Grundgesamtheit („target population“) Menge der Elemente, über die Aussagen einer Studie gelten sollen
  • Auswahlgesamtheit („frame population“) Menge aller Elemente, die eine prinzipielle Chance haben, ausgewählt zu werden
  • Probleme bei versuchter Übereinstimmung von target und frame population -Overcoverage (Def.) = Einschluss von Elementen in die Auswahlgesamtheit, die nicht zur angestrebten Grundgesamtheit gehören   Bsp.: Auswahl von weggezogenen Personen aus  einem veralteten Einwohnermelderegister -Undercoverage (Def.) = Auslassen von Elementen in der Auswahlgesamtheit, die zur angestrebten Grundgesamtheit gehören   Bsp.: Zur angestrebten Grundgesamtheit gehörende Personen ohne Telefonanschluss bei telefonischer Befragung -Dopplungen (Def.) = Elemente, die fälschlicherweise mehrfach in der Auswahlgesamtheit enthalten sind  Bsp.: Zur angestrebten Grundgesamtheit gehörende Personen mit mehreren Telefonanschlüssen bei einer telefonischer Befragung
  • Inferenzpopulation Grundgesamtheit, über die anhand der vorliegenden Stichprobe tatsächlich Aussagen mittels statistischer Inferenz möglich sind
  • Ausfälle (Zusammenhang GG und Stichprobe) Elemente der Auswahlgesamtheit, die sich in Folge der Auswahlregeln und Erhebungsdurchführung der Erhebung entziehen Bsp.: Nichterreichbarkeit, Verweigerung
  • Geschichtete Zufallsstichprobe Einteilung der Grundgesamtheit in homogene Gruppen (Schichten), so dass jedes Element der Grundgesamtheit genau zu einer Schicht gehört, und Ziehung einfacher Zufallsstichproben innerhalb jeder Schicht a)proportionale Schichtung: Umfang der einfachen Zufallsstichproben entspricht dem Größenanteil der Schichten in Grundgesamtheit  gleiche Ziehungswahrscheinlichkeit für alle Elemente (also EPSEM-Stichprobe) b)Disproportionale Schichtung: Umfang der einfachen Zufallsstichproben entspricht nicht dem Größenanteil der Schichten in Grundgesamtheit  - unterschiedliche Ziehungswahrscheinlichkeit für Elemente der jeweiligen Schichten (keine EPSEM-Stichprobe)- spätere Rückgewichtung (Designgewicht, Inverse der Auswahlwahrscheinlichkeit)- vor allem geeignet bei Untersuchung relativ kleiner Gruppen der Grundgesamtheit (z.B. MigrantInnen, Langzeitarbeitslose) -> nicht strukturgetreue Abbildung Voraussetzungen der geschichteten Zufallsstichprobe - Schichtungsmerkmale müssen vor  eigentlicher Ziehung der Stichprobe festgestellt werden- Vollständige Liste der Grundgesamtheit muss vorliegen- Vorwissen über Umfänge der Schichten in der Grundgesamtheit notwendig, d.h. die Merkmalsverteilung des verwendeten Schichtungsmerkmals (z.B. Einkommensverteilung) muss bekannt sein
  • Vorteile von geschichteter Zufallsstichprobe +Falls einzelne Schichten selbst von Interesse sind, können diese Schichten jeweils als unabhängige Stichproben analysiert werden +Geeignet für bestimmte Fragestellungen und Auswertungstechniken, die eine bestimmte Mindestzahl ausgewählter Elemente pro Schicht erfordern à z.B. disproportionale Schichtung zur Datenerhebung bei relativ kleinen Teilpopulationen +Präzisere Schätzungen (d.h. kleinere Standardfehler) möglich durch „Schichtungseffekt“. Dieser „Schichtungseffekt“ ist umso ausgeprägter, je homogener die Elemente in einer Schicht und je größer die Heterogenität im interessierenden Parameter zwischen den Schichten ist
  • Klumpenstichprobe Ziehung einer Zufallsstichprobe von Makroeinheiten (Schulen, Organisationen, Haushalte = Klumpen/cluster), innerhalb derer eine vollständige Erhebung der jeweiligen Einheiten erfolgt - Eine Klumpenstichprobe ist eine spezielle Variante der einfachen Zufallsstichprobe, bei der die Auswahlregeln nicht auf die Elemente der Grundgesamtheit, sondern auf zusammengefasste Elemente (Klumpen/cluster) angewendet wird. D.h. die Elemente dieser einfachen Zufallsstichprobe sind die Klumpen
  • Vor- und Nachteile der Klumpenstichprobe +Anwendung auch wenn keine Liste der Grundgesamtheit, wohl aber eine Liste übergeordneter Einheiten (cluster) erstellt werden kann -„Klumpeneffekt“: Genauigkeitsverlust der Schätzung im Vergleich zu einfacher Zufallsstichprobe bei Homogenität innerhalb der Cluster, Heterogenität zwischen Clustern sowie bei hoher Anzahl von Elementen in Cluster
  • Mehrstufige Zufallsauswahl Reihe nacheinander durchgeführter Zufallsstichproben, wobei die jeweils entstehende Zufallsstichprobe die Auswahlgrundlage der folgenden Zufallsstichprobe darstellt 1. Ziehung von Elementen der Stufe 1 (primary sampling units = PSUs)2. Ziehung von Elementen der Stufe 2 (secondary sampling units = SSUs) innerhalb der gezogenen Elemente der Stufe 13. Ziehung von Elementen der Stufe 3 innerhalb der gezogenen Elemente der Stufe 2 usw. Einsatz: - wenn kein zentrales aber ein dezentrales Register an Elementen der Grundgesamtheit vorhanden ist oder letzteres leicht erhoben werden kann - bei komplexer Stichprobenziehung (z.B. Grundgesamtheit: allgemeine Bevölkerung)
  • Probability Proportional to Size (PPS) Design (mehrstufige Zufallsauswahl) - Nahezu immer enthalten Primäreinheiten bei einer mehrstufigen Zufallsauswahl unterschiedlich viele Elemente - Bei gleicher Ziehungswahrscheinlichkeit der Primäreinheiten ergibt sich bei gleicher Ziehungswahrscheinlichkeit der Sekundäreinheiten das Problem, dass Elemente größerer (kleinerer) Primäreinheiten eine niedrigere (größere) Auswahlwahrscheinlichkeit haben - PPS-Design: Auswahlwahrscheinlichkeit der Primäreinheiten proportional zur Größe der Primäreinheiten und dann Ziehung der gleichen Anzahl von Sekundäreinheiten aus jeder Primäreinheit Bsp.: - Stadt mit 100.000 Haushalten, die in 2000 Blocks unterteilt ist- Zufallsstichprobe mit 1000 Haushalten angestrebt à 1000/100000=0.01 Auswahlwahrscheinlichkeit- Verwendung einer zweistufigen Zufallsauswahl mit PPS-Design, falls keine Gesamtliste der Haushalte verfügbar ist: erster Schritt Zufallsauswahl von 200 Blocks proportional zu ihrer Größe, zweiter Schritt Zufallsauswahl von je 5 Haushalten- Ziehungs“wahrscheinlichkeit“ p= #Blocks*#Haushalte im Block/#Haushalte der Stadt->Block mit 100 Haushalten: p=200*100/100000=0.2->Block mit 400 Haushalten: p=200*400/100000=0.8 - Auswahl von 5 Haushalten pro Block- Block mit 100 Haushalten: 5/100=0.05- Block mit 400 Haushalten: 5/400=0.0125 - Tatsächliche Gesamtauswahlwahrscheinlichkeit eines Haushalts- 1 Haushalt in einem Block mit 100 Haushalten: 0.2*0.05=0.01- 1 Haushalt in einem Block mit 400 Haushalten: 0.8*0.0125=0.01
  • Random Walk (mehrstufige Zufallsauswahl) - Oftmals Verzicht auf die vollständige Auflistung aller Sekundäreinheiten (z.B. Haushalte) innerhalb einer ausgewählten Fläche („sampling points“) - Verfahren zur Erstellung einer Auswahlgrundlage ohne vollständige Auflistung: Random Walk, d.h. ausgehend von einer Startadresse in einem sampling point (z.B. Auswahl Straße mit bestimmten Anfangsbuchstaben) konkrete Begehungsanweisung zur Identifikation von Adressen-- „Address-Random“: Zufallsauswahl aus den ermittelten Adressen à Trennung zwischen Adressenermittlung und Erhebung (Problem: Veraltete Adressen) oder-- „Standard Random Walk“: Direkte Erhebung der angesteuerten Haushalte (Problem: Fehlende Kontrolle der Interviewer) - Generelle Probleme des Random Walk: nicht eindeutige Begehungsanweisungen, ungenaue Adressermittlung falls auf Namensschilder basierend, Manipulation durch Interviewer - Weiteres Problem: Wie wählt man einen Befragten per Zufall aus dem ausgewählten Haushalt aus?-- Lösung 1: Tabellen mit Zufallszahlen („Schwedenschlüssel“)-- Lösung 2: Last-Birthday-Methode-- Probleme: ->Manipulation durch Interviewer ->Manipulation/Verweigerung durch Haushaltsmitglieder („Gatekeeper“)
  • Bewusste Auswahl, Definition Auswahl erfolgt nach angebbaren und überprüfbaren Kriterien; allerdings keine Zufallsauswahl Implikation: - Wegen fehlender Zufallsauswahl keine Möglichkeit der statistischen Inferenz Verfahren der bewussten Auswahl: - Auswahl extremer Fälle- Auswahl typischer Fälle- Auswahl nach Konzentrationsprinzip- Auswahl mittels Schneeball-Verfahren- Auswahl mittels Quota-Verfahren 
  • Verfahren der bewussten Auswahl: Auswahl typischer Fälle Auswahl von Fällen, die als besonders „charakteristisch“ für die Grundgesamtheit gesehen werden Probleme - erfordert Vorwissen über auswahlrelevante Kriterien: Anhand welches Kriteriums wird entschieden was charakteristisch ist? Welche Ausprägungen des ausgewählten Kriteriums sind charakteristisch? - Unbekannte Verteilung der auswahlrelevanten Kriterien in der Grundgesamtheit, da nur charakteristische Fälle betrachtet werden, aber unklar ist, wieviel Prozent der Grundgesamtheit charakteristische Fälle darstellen
  • Verfahren der bewussten Auswahl: Auswahl extremer Fälle Selektion derjenigen Fälle, die in Bezug auf ein bestimmtes Merkmal eine „extreme“ Ausprägung besitzen Anwendungsmöglichkeit: spezielle (kleine) Populationen (z.B. Elitenforschung) Probleme: -Umdefinieren der Grundgesamtheit à Verallgemeinerung nur auf die neue Grundgesamtheit möglich-keine Anwendung der Inferenzstatistik, da keine Zufallsauswahl
  • Verfahren der bewussten Auswahl: Auswahl nach Konzentrationsprinzip Auswahl von Fällen, die dominant für die Verteilung des interessierenden Merkmals sind Probleme: -nur geeignet bei speziellen Fragestellungen (z.B. große Wirtschaftsunternehmen)- erfordert Vorwissen-keine Anwendung der Inferenzstatistik, da keine Zufallsauswahl
  • Verfahren der bewussten Auswahl: Auswahl mittels Schneeball-Verfahren Auswahl von Einheiten mit der Aufforderung an diese Einheiten, dass sie weitere Einheiten rekrutieren, etc. Anwendungsbereich: v.a. bei  Untersuchung seltener Populationen Erweiterung des Schneeball-Verfahrens durch Netzwerkanalyse -erlaubt Berechnung von Ziehungswahrscheinlichkeiten (Respondent Driven Sampling)-notwendige Bedingungen: --hohe Interaktionsdichte zwischen Elementen der Grundgesamtheit (soziales Kollektiv) --Erhebung der Netzwerkstruktur bei StichprobenziehungProblem: keine Anwendung der Inferenzstatistik, da keine Zufallsauswahl
  • Verfahren der bewussten Auswahl: Auswahl mittels Quota-Verfahren Auswahl von Beobachtungseinheiten in der Art, dass bestimmte Merkmale in der Stichprobe denselben Anteil („quota“) aufweisen, wie in der Grundgesamtheit Implikation: angestrebte Stichprobe entspricht hinsichtlich der ausgewählten Merkmale der Grundgesamtheit Voraussetzungen: -bekannte Verteilung in Grundgesamtheit-Korrelation mit inhaltlich interessierenden Variablen-Erkennbarkeit des Quotenmerkmals bei Personen vor Befragung Durchführung: - Erstellung eines Quotenplans = Vorgaben darüber, wie viele Personen mit bestimmten Merkmalen („unabhängige Quoten“) oder Merkmalskombinationen („kombinierte Quoten“) befragt werden sollen- Berechnung des Quotenplans anhand bekannter Daten für die Grundgesamtheit- Beschränkung auf einfache Merkmale, z.B. Alter, Geschlecht, Nationalität, Beruf- endgültige Auswahl der befragten Personen durch die Interviewer
  • Vor- und Nachteile des Quota-Verfahrens +kostengünstige Stichprobenziehung -keine Anwendung der Inferenzstatistik, da keine Zufallsauswahl-Die Quotenmerkmale sind i.d.R. Globalvariablen und korrelieren teilweise nicht mit anderen relevanten Merkmalen -Interviewer ist frei im Sinne einer willkürlichen Auswahl, sich innerhalb der vorgegebenen Quoten Netzwerke von interviewbereiten Personen zu schaffen (führt zu systematischer Verzerrung)-Annahme homogener Schichten auf Basis der gegebenen Quoten unplausibel (v.a. bei Verwendung von Globalvariablen) wegen der differenzierten Gesellschaftsstruktur
  • Willkürliche Auswahl Auswahl erfolgt lediglich nach Ermessen des Auswählenden; daher keine Zufallsauswahl und keine Möglichkeit der statistischen Inferenz Problem: für wissenschaftliche Zwecke nicht sinnvoll einsetzbar
  • Repräsentativität Repräsentativität ist nur möglich im Fall einer Zufallsstichprobe. Diese garantiert, dass aus der Verteilung der Merkmale in der Stichprobe induktive Schlüsse (unter angebbarer statistischer Unsicherheit) auf die Verteilung  der Merkmale der Grundgesamtheit gezogen werden können. ACHTUNG: „Repräsentationsnachweise“ durch Vergleich von Stichprobenverteilungen mit Verteilungen der Grundgesamtheit sind nicht ausreichend, da sie in der Regel auf bekannte Standardmerkmale (Alter, Geschlecht) beschränkt sind und nicht die Verteilungen aller beobachtbaren und unbeobachtbaren Merkmale Grundgesamtheit widerspiegeln -> Keine ex-post Rechtfertigung der Repräsentativität bei nicht-zufälliger Auswahl-> Nur durch eine Zufallsstichprobe ist die Repräsentativität gewährt
  • Typen von Ausfällen (Non-Response) -Unit nonresponse: fehlende Daten für alle Variablen einer Untersuchungseinheit-Item nonresponse: fehlende Daten für einzelne Variablen einer Untersuchungseinheit 
  • Ausschöpfungsquote (Porst 1985) Anteil der durchgeführten und ausgewerteten Interviews aus der Stichprobe Ausschöpfungsquote = (durchgeführte und ausgewertete Interviews/bereinigte Stichprobe) * 100% Nonresponsequote = 100% - Ausschöpfungsquote 
  • Ursachen für Ausfälle -Interviewertäuschung → Abhilfe: gutes Interviewertraining-Interviewerfehler → Abhilfe: gutes Interviewertraining-Datenerfassungs- und Datenbereinigungsfehler → Abhilfe: gutes Training und klare Guidelines -Interviewerausfälle → Abhilfe: gutes Interviewertraining, Ersatzinterviewer-Nichterreichbarkeit einer Kontaktperson → Abhilfe: callbacks, Erinnerung-Krankheit einer Kontaktperson oder der Zielperson → Abhilfe: Befragung Dritter-Verweigerung der Kontaktperson oder der Zielperson → Abhilfe: Verweis auf Bedeutung, Verweis auf Anonymität, Incentives-Abbruch während des Interviews → Abhilfe: Spannungsbogen aufrechterhalten, Motivation zur Fortführung, Verweis auf Bedeutung, Verweis auf Anonymität, höherer Incentive bei Abschluss des Interviews
  • Einfaches Erklärungsmodell für Non-Response +Nutzen einer Teilnahme (Interesse am Befragungsthema, Höflichkeit gegenüber Fremden, Glaube an die Nützlichkeit von Forschung, Loyalität gegenüber Erhebungsinstitut und Auftraggeber, Zeitvertreib, etc.)-Kosten einer Teilnahme (Opportunitätskosten: verlorene Zeit; negative Konsequenzen der Teilnahme z.B. durch Datenmissbrauch)-Nutzen einer Verweigerung (Demonstration subjektiver Werthaltung, z.B. Ablehnung quantitativer Sozialforschung, Abneigung gegenüber staatlichen und wissenschaftlichen Institutionen)= Nettonutzen der Teilnahme >0 = Teilnahme <0 = Verweigerung
  • Konsequenzen von Ausfällen (Non-Response) - Rein zufällige Ausfälle: Zufallsauswahl innerhalb der Zufallsstichprobe à keine Verzerrung der Schätzer, lediglich größere Ungenauigkeit der Schätzung von Populationsparametern- Systematische Ausfälle: Verzerrte Schätzung der Populationsparametern-- Lösung 1: Selektionskorrekturverfahren (Problem: Kenntnis des Selektionsmechanismus            notwendig und starke statistische Annahmen)-- Lösung 2: Gewichtungsverfahren, häufig mittels demografischer Merkmale (sog.    „Redressment“) (Problem: Gewichtung nur dann erfolgreich, wenn die Selektion/Ausfälle nicht mit anderen unberücksichtigten Merkmalen zusammenhängen)