Forschungsmethoden (Fach) / Quantitative Befragung (Lektion)
In dieser Lektion befinden sich 25 Karteikarten
Quantitative Befragung
Diese Lektion wurde von RaphaelPrell erstellt.
Diese Lektion ist leider nicht zum lernen freigegeben.
- Modell empirisch-analytischer Forschungsprozess Problem → Hypothese (bereits vorhandene Theorie) → Datensammung und -auswertung → Ergebnisbewertung → Rückweisung oder Annahme der Hypothese
- Induktion Untersuchung bislang unbekannter Zusammenhänge oder Präzisierung bereits vorhandener Theorieansätze vorhandene Daten und Beobachtungen müssen so miteinander kombiniert werden, dass neue Zusammenhänge und Hintergründe sozialräumlicher Strukturen sichtbar werden Motorrad Fehlzündung und Schlagloch Beispiel Deduktion und Induktion werden in der Regel kombiniert verwendet
- Deduktion bereits vorhandenes, durch wissenschaftliche Untersuchungen erworbenes Wissen wird genutzt existierendes Wissen oder Theorien werden auf andere, ähnlich gelagerte Problemstellungen übertragen Motorrad Signalhorn und Batterie Beispiel Deduktion und Induktion werden in der Regel kombiniert verwendet
- Falsifikation nach Karl Popper Kernelement der quantitativen Methoden analytische Wissenschaft tastet sich an die Realität über "geschicktes Zweifeln" an objektive Realität kann nie vollständig erkennbar sein Hypothesen können nie durch Verifikation bestätigt werden, nur durch Falsifikation widerlegt werden Gelingt das Falsifizieren einer Hypothese über länger Zeit nicht, besteht eine Gute Chance, dass die Hypothese richtig ist
- Gütekriterien quantitativer Forschung empirische Überprüfbarkeit der Realität mit Hilfe des Falsifikationsprinzips intersubjektive Überprüfbarkeit der Untersuchung Wiederholbarkeit der empirischen Befunde und Prüfungen Ableitung von "Gesetzen" zur Erklärung der Realität Prognosefähigkeit Wertfreiheit und "Objektivität" der Forschung
- Grundgesamtheit Die Menge aller Elemente, über die wir durch eine Untersuchung Erkenntnisse gewinnen wollen. ist nicht immer bekannt kann unendlich sein Untersucht ein Forschungsprojekt die Grundgesamtheit wird von einer Voll- oder Totalerhebung gesprochen
- Stichprobe Teilmenge aller Untersuchungseinheiten, die die untersuchungsrelevanten Eigenschaften der Grundgesamtheit möglichst genau abbilden. Stichprobe ist im günstigsten Fall ein "Miniaturbild" der Grundgesamtheit je besser die Stichprobe die Grundgesamtheit repräsentiert, desto verlässlicher können später Rückschlüsse auf die Grundgesamtheit getroffen werden Zufallsstichprobe vs. Willkürstichprobe
- Zufallsstichprobe jedes Element der Grundgesamtheit hat die gleichen Chancen in die Stichprobe zu gelangen ist repräsentativ im statistischen Sinne
- Willkürstichprobe führt leicht zu Verzerrungen gegenüber der Grundgesamtheit willkürliche Stichprobe kann nur für sich selbst stehen repräsentative Aussagen über Grundgesamtheit sind nicht möglich
- einfache Zufallsauswahl Elemente der Stichprobe werden direkt aus der Grundgesamtheit ermittelt Lotterieverfahren Zufallszahlen-Verfahren systematische Zufallsstichprobe Klumpenstichprobe Auwahlregeln beziehen sich nicht auf die Elemente der Grundgesamtheit, sondern auf zusammengefasste ELemente (z.B. Häuser einer Straße) bietet sich an, wenn keine Liste der Grundgesamtheit verfügbar ist problematisch sind die Unterschiede zwischen den Clustern, welche zu Verzerrungen führen können (Klumpeneffekt)
- mehrstufige Zufallsstichproben Elemente der Grundgesamtheit (Primäreinheiten) werden in sachsystematisch sinnvolle Gruppen (Sekundäreinheiten) eingeteilt Sekundäreinheiten bilden die Grundlage für die nächste Ziehung es kommt also zu einer Reihe nacheinander durchgeführter Zufallsstichproben, wobei die jeweils entstehende Stichprobe die Auswahlgrundlage für die nächste Stichprobe bildet
- Größe der Stichprobe kann aus methodologischer Sicht nicht eindeutig beantwortet werden hängt inhaltlich im wesentlichen von der Güte der gewünschten Ergebnisse ab, im praktischen Alltag vom Zeit- und Kostenrahmen Güte der Stichprobe hängt in der Regel nicht von ihrem zahlenmäßigen Verhältnis zur Grundgesamtheit ab je stärker die Werte der Variablen streuen, desto größer sollte die Stichprobe sein Stichprobenumfänge von weniger als 30 gelten für die meisten Verfahren als zu klein
- Formen der standardisierten Datenerhebung Beobachtung und Zählung ursprünglichste Datenerhebungstechnik eher vorwissenschaftlicher Status aufgrund der Begrenztheit und Subjektivität menschlicher Erkenntnis kann es weder einen neutralen noch einen objektiven Blick des beobachters geben standardisierte Interviews das Standardinstrument der empierischen Sozialforschung Exploration - neue inhaltliche Aspekte der Untersuchung Messung - Erhebung von Daten zur Hypothesenüberprüfung Verfeinerung - der Ergebnisse, die die Analyse aufgeworfen hat
- Strukturierungsgrad der Interviews Unterscheidung in wenig strukturierte, teilstrukturierte und vollstrukturierte Interviews als standardisiert soll ein Interview bezeichnet werden, wenn die Antworten in Kategorien zusammengefaßt werder, um ihre Vergleichbarkeit herzustellen
- Frage- und Antworttypen geschlossene Fragen teiloffene Fragen offene Fragen
- geschlossene Fragen - Vorteile Vorteil auf konzeptioneller Ebene einzige Möglichkeit die "Reinheit der Methode" sicherzustellen, das heißt die vorher abgestellte Hypothese anhand von möglichen Anwortkategorien zu testen Vorteil auf instrumenteller Ebene es weden nicht allzu große geistige Leistungen abverlangt leicht Aufzeichungsmöglichkeiten
-
- geschlossene Fragen - Nachteile Nachteile auf instrumenteller Ebene verzeiht keine Fehler: etwa wenn Kategorien nicht trennscharf waren, bei formulierungsbedingten Verständnisproblemen, fehlen von wichtigen Antwortkategorien Nachteile auf konzeptioneller Ebene bei sensiblen Einstellungs- und Meinungsfragen müssen Probanden sehr differenzierte Einstellungen in pauschalisierte Antwortkategorien pressen kann zu einer Vortäuschung von Gruppenhomogenität in der Datenbank führen, welche in der Realität vielleicht nicht vorliegt
- Offene Fragen Vorteile Befragte können in ihren eigenen Worten antworten Antworten sind nicht durch vorinterpretierte Alternativen beeinflusst Möglichkeit deutlich differenzierter und nuancenreicher zu Antworten bei Einstellungs- und Bewertungsfragen
- Offene Fragen - Nachteile Anwortunterschiede müssen nicht reine Meinungsunterschiede sein, sondern können auch von der Sprachkompetenz der Befragen abhängen Anteil von Interviewereffekten steigt deutlich an: kommunikative Fähigkeiten, aufzeichnungstechnische Fähigkeiten, fachliche Vorverständnis Nachverschlüsselung muss durchgeführt werden, also die Bildung von Antwortkategorien, in welche die Vielfältigen Antworten gezwungen werden müssen
- Hybride (teiloffene) Fragen - Vor- und Nachteile teilweise nützliche Kompromissformel Probanden haben die Möglichkeit bei Bedarf eine andere Antwort zu geben beeinhalten in abgeschwächter Form sowohl die Vor- als auch die Nachteile von offenen und geschlossenen Fragen
- grundlegende Eigenschaften quantitativer Forschung Nutzung von harten Daten und mathematisch-statistischen Analysewerkzeugen hypotethischer Realismus Versuch die objektive Realität immer genauer und richtiger zu erkennen
- Stichwortartige Zusammenfassung quantitativer Methoden Testen von Hypothesen (Falsifikationsprinzip) Datenerhebung standardisiert durch Kategorien vorkonstruierte und eingeengte Beantwortungsmöglichkeit Überschaubare, in standardisierten Kategorien geordnete Datenmenge Auswertung mit normierten, mathematisch-statistischen Verfahren Repräsentativität durch Zufallsstichprobe und vergleichsweise große "Samples" Geeignet für die Erhebung "harter Daten" und kategorisierbarer Informationen Schematisierung Dokumentation der Ergebnisse weniger problematisch Gütekriterium der intersubjektiven Überprüfbarkeit
- Hypothetico-Deduktive Methode Empirische Daten → Hypothesenbildung → Theorie → Deduktiver Schluss → Vorhersage → Prüfung mit empirischen Daten
- Skalenniveaus Nullpunkt Abstände Ränge Identität Beispiel Nominalskala Nein Nein Nein Ja Familienstand Ordinalskala Nein Nein Ja Ja Zufriedenheit Intervallskala Nein Ja Ja Ja Grad Celsius Rationalskala Ja Ja Ja Ja Entfernungen
- analytische Statistik vs. deskriptive Statistik Analytische Statistik diejenigen Methoden und Probleme, welche die Übertragung von Befunden aus Stichproben auf die dazugehörige Grundgesamtheit zum Gegenstand haben Desktriptive Statistik beschreibende Statistik, beschreibende Methoden von Grundgesamtheiten z. B. durch Tabellen, Grafiken, Kenn- und Mittelwerte