In dieser Lektion befinden sich 71 Karteikarten

SS 2016

Diese Lektion wurde von aussie007 erstellt.

Lektion lernen

  • Induktion Der Empiriker bewegt sich von den Fakten zur Formulierung von Gesetzesaussagen, die die Fakten beschreiben. (Vom Besonderem zum Allgemeinem)
  • Deduktion Der Theoretike geht von einem allgemeinem Grundsatz oder einer "dumpfen" Ahnung aus und sucht nach Evidenz, die den Grundsatz bekräftigen soll. (Vom Allgemeinem zum Besonderem)
  • Definition Hypothesen Sind die Annahmen über reale Sachverhalte (empirischer Gehalt, empirische Untersuchbarkeit) in Form von Konditionalsätzen. Sie weisen über den Einzelfall hinaus (Generalisierbarkeit, Allgemeinheitsgrad) ...
  • Kriterien einer wissenschaftlichen Hypothese 1. Sie bezieht sich auf reale Sachverhalte, die empirisch untersuchbar sind2. Sie ist eine allgemein gültige, über den Einzelfall oder ein singuläres Ereignis hinausgehende Behauptung (“All-Satz”)3. ...
  • Statistische Hypothesen Statistische Hypothesen sind definiert als Annahmen über die Verteilung einer oder mehrerer Parameter dieser Verteilung.-Bei statistischen Hypothesen handelt es sich um Wahrscheinlichkeitsaussagen-D.h. ...
  • Reliabilität Grad der Reliabilität:-Messinstrumente messen höchst zuverlässig mit stabilen Ergebnissen-Alternative Messinstrumente/ Messdurchführende kommen zum gleichen Ergebnis Wie wird Reliabilität erreicht?-Passgenaue ...
  • Validität Grad der Genauigkeit-Wird gemessen, was gemessen werden soll? Fehlerquellen-Suchfragen, die zu große Antwortspielräume haben-Zu kleine Stichprobe-Falsche Stichprobenauswahl Inhaltsgültige Ergebnisse ...
  • Zufallsfehler xR -Beinhaltet Größen, die zufällig und bei jeder Messung mit anderer Stärke die Messergebnisse beeinflussen-Reliabilität (Zuverlässigkeit): Stabilität der Messwerte bei wiederholten oder parallelen ...
  • Systematischer Fehler xS -Tritt bei jeder Messung in gleicher Höhe auf-Validität (Gültigkeit): erhaltene Messungen spiegeln die wirkliche Höhe der Messgröße wider
  • Test-Retest Reliabilität - Die Messung an einem Objekt sollte über die Zeit stabil sein- Statistisch: Korrelation der Messwertreihen (rt1t2)
  • Interne Konsistenz - Test, inwiefern einzelne Items dasselbe messen- Somit „Quasi-Paralleltest“ jedes einzelnen Item- Praktisch: Test mittels Cronbach‘s Alpha
  • Interrater Reliabilität - An einem Objekt wird durch zwei unterschiedliche Messinstrumentedieselbe Messung vorgenommen- Die Messergebnisse sollten dabei gleich sein- Beispiel: Bewertung Ihrer Klausurleistung. Zwei Prüfer sollten ...
  • Inhaltsvalidität (Face Validity) - Inhalt der Test-Items erfassen das zu messende Konstrukt erschöpfend- Höhe der Inhaltsvalidität kann nicht numerisch bestimmt werden
  • Kriteriumsvalidität: - Liegt vor, wenn der Test zur Messung eines latenten Konstruktes mit dem Test einer korrespondierenden manifesten Variablen übereinstimmt
  • Konstruktvalidität - Liegt vor, wenn aus dem zu messenden Zielkonstrukt Hypothesen ableitbar sind, die anhand der Testwerte bestätigt werden können
  • Definition Messung Messung ist die Zuordnung von Zahlen zu Objekten, bei denen die Zahlenrelationen analoge Relationen bei den Objekten wiedergeben (Isomorphie)
  • Objekte/Merkmalsträger: z.B. Personen, Gegenstände ... – Merkmale: Sammelbegriff für Eigenschaften, Verhaltensweisen usw.; z.B. Alter,Kaufverhalten, Benutzerfreundlichkeit– Ausprägung: numerische Werte zur Kennzeichnung der Merkmale– Geometrische ...
  • Messinstrumente – Skala: Maßstab, der einem Merkmalsträger einen Skalenwert zuzuteilen erlaubt– Manifest: bspw. Thermometer– Latent: bspw. Kundenzufriedenheit
  • Operationalisierung eines hypothetischen Konstrukts ... • Zerlegung in verschiedene Dimensionen und Ableitung beobachtbarer und direkt messbarer Größen (Indikatoren)• Ermittlung der Indikatorwerte: Vorgabe von Items– Item = Grundbauelement einer Skala ...
  • Qualitative Methoden - Charakteristika -offen, flexibel und umfassend angelegt-„hypothesensuchend“, schrittweiseTheoriebildung und -weiterentwicklung-Suche nach relevanten Inhalten-Ziel: Maximierung der Validität-Orientierung am Untersuchungsgegenstand ...
  • Quantitative Methoden - Charakeristika -standardisiert, strukturiert-„hypothesenprüfend“, ex ante Hypo- thesenbildung- Messen festgelegter Inhalte- Ziel: Maximierung der Reliabilität- Methodenorientierung- große Stichprobe- repräsentative ...
  • Qualitative Methoden - Vorraussetzungen -Kenntnisse und Eingrenzung des Untersuchungsgebietes-Stichprobengröße:-abhängig von der konkreten Fragestellung ab 10 Personen (wichtig: theoretische Sättigung)-Stichprobenzusammensetzung:theoretical ...
  • Quantitative Methoden - Vorraussetzungen -Sachlogisches Wissen, um Hypothesen oder theoretisches Modell aufstellen zu können-ausreichende Kenntnisse über relevante Inhalte und Beurteilungskriterien für die Entwicklung der Forschungsinstrumente-Stichprobengröße ...
  • Qualitative Methoden - Einsatzgebiete -Generierung von Hypothesen-Erkundung von Ursachen-Aufstellen von Klassifikationen oder Typologien-Ermittlung von relevanten Beurteilungskriterien-z.B.: Generierung von Produktideen, Verbesserungsvorschlägen, ...
  • Quantitative Methoden - Einsatzgebiete -Testen von Hypothesen-Quantifizierung von Sachverhalten-Überprüfung statistischer Zusammenhänge-Überprüfung und Darstellung von zahlenmäßigen V eränderungen-z.B.: Produkt- und Markttests, Kundenzufriedenheitsanalysen, ...
  • Qualitative Methoden - Durchführung -Definition der Fragestellung-Entscheidung über Art und Strukturierungsgrad der Methode-Entwicklung des Interview-/Beobachtungs-/ Diskussionsleitfadens etc.-Schulung der Interviewer/Beobachter/Diskussionsleiter ...
  • Quantitative Methoden - Durchführung -Definition der Fragestellung-Einholen aller verfügbaren Informationen über den Untersuchungsgegenstand-Konstruktion des Erhebungsinstruments (Fragebogen, Beobachtungsschema, quantitativer Interviewleitfaden ...
  • Vollerhebungen Vollerhebungen sind aufwändig und teuer, deshalb nur bei:-kleiner Grundgesamtheit-hoher Streuung-hohen Kosten des Irrtums
  • Teilerhebung -Bei einer Teilerhebung wird nur eine Teilmenge der Grundgesamtheit erfasst -Beim Gestalten von Teilerhebungen gibt es einen Trade-off zwischen Kosten und Genauigkeit
  • Erstellung eines Auswahlplans 1. Bestimmung der Grundgesamtheit2. Bestimmung des Auswahlplans (nicht behandelt)3. Festlegung des Stichprobenumfangs4. Auswahlprinzip und Auswahltechnik5. Entscheidung über die Auswahltechnik (nicht ...
  • Definition Auswahleinheiten Element oder eine Gruppe von Elementen, die auf einer bestimmten Stufe des Auswahlvorgangs zur Verfügung stehen
  • Verfahren der Zufallsauswahl (Random Sampling) -Für jedes Element der Grundgesamtheit ist die Wahrscheinlichkeit, in die Stichprobe zu gelangen, bekannt und größer Null-Mit zunehmender Größe der Stichprobe steigt die Wahrscheinlichkeit ihrer ...
  • Einfache, reine Zufallsauswahl - Urnenmodell (Lotterieauswahl): Alle Elemente haben gleiche Auswahlwahrscheinlichkeit- Setzt voraus, dass die Grundgesamtheit vollständig vorliegt und zugänglich ist- Vorteil: Kenntnis der Merkmalsstruktur ...
  • Geschichtete Zufallsauswahl (Stratified Sampling) - Unterteilung der Grundgesamtheit in mehrere Untergruppen (Schichten) ->daraus jeweils separate Stichprobenbildung- Geeignet bei heterogener Grundgesamtheit mit relativ homogenen Teilgruppen- Ziel: Reduktion ...
  • Klumpenauswahl (Cluster Sampling) -Unterteilung der Grundgesamtheit in mehrere „Klumpen“, d.h. (meist „natürliche“) Konglomerate von Untersuchungseinheiten-Zufallsauswahl einer bestimmten Anzahl von Klumpen - alle Elemente werden ...
  • Verfahren der bewussten Auswahl (Non-Random Sampling) ... -Konstruktion der Stichprobe durch gezielte Auswahl nach sachrelevanten Merkmalen ->Auch hier: Ziel ist Repräsentativität für die GrundgesamtheitVorteile:- Zumeist kostengünstig, schnell, elastisch ...
  • Quoten-Auswahl (Quota Sampling) -Ziel ist Erstellung eines Modells (Stichprobe) der Grundgesamtheit, das in allen Merkmalen für die Grundgesamtheit repräsentativ ist-Setzt Kenntnis über Merkmale (Quoten) und deren anteilige Verteilung ...
  • Cut-off-Verfahren (Konzentrationsverfahren) -Beschränkung der Erhebung auf für den Untersuchungstatbestand besonders bedeutende Elemente der Grundgesamtheit-Verfahren eignet sich nur, bei starkem Ungleichgewicht zwischen den einzelnen Elementen ...
  • Pretest - Warum testen wir den Fragebogen? Inhaltliche Verständlichkeit:-Eindeutigkeit für Befragten + Interviewer-Verständnis der Fragen -Schwierigkeit der Fragen-Interesse, Aufmerksamkeit-Kontinuität/Fluss des Interviewablaufs -Kontexteffekte, ...
  • Pretest - Wie kann ich einen Pretest durchführen? Qualitativ: Man bespricht mit potentiellen Probanden den Fragebogen durch-Testung der Validität-Verständlichkeit-VollständigkeitQuantitativ: Man erhebt eine kleine Stichprobe und wertet die Ergebnisse ...
  • Datenquellen: Primär- vs. Sekundärdaten Erhebungsmethode nach Datenquelle:-Primärdaten – Erhebung spezifisch für das vorliegende Problem-Sekundärdaten – bereits für andere Zwecke erhobenVorteile:- Leicht und schnell zugänglich, meist ...
  • Querschnitt (Cross-Section) Verschiedene Unternehmen, Branchen etc. werden zu einem bestimmten Zeitpunkt betrachtet
  • Zeitreihe (Time Series) Ein Unternehmen, Branche etc. wird über eine Zeitspanne betrachtet
  • Panel Verschiedene Unternehmen, Branchen etc. werden über eine Zeitspannebetrachtet
  • Gepoolter Querschnitt (Pooled Cross-Section) Mischung aus Querschnitt und Zeitreihe. Die Querschnittseinheiten sindunabhängig voneinander .
  • Ausfälle (Non-Response-Bias) Der im Erhebungsdesign einer Untersuchung festgelegte Auswahlplan lässt sich in der Regel nicht vollständig realisieren, da es in der Praxis praktisch unmöglich ist, alle Informationen über alle nach ...
  • Bei den Ausfällen unterscheidet man zwischen: -“Unable to answer” (Personen, die körperlich oder geistig nicht in der Lage sind zu antworten)-“Not at home” (Personen, zu denen kein Kontakt aufgenommen werden konnte)-“Refusals” (Personen, ...
  • Key-Informant-Bias Key Informant Methode:Für eine Studie wählt man einen nach Maßgabe der Kompetenz eine Person (Key Informant) aus, welcher am besten geeignet ist, um Auskunft über Sachverhalte wiederzugeben.(z.B.: ...
  • Common-Method-Bias Unter Common-Method-Bias oder Common-Method-Variance versteht man einen Messfehler, der auf die Erhebungsmethode zurückzuführen ist.Dieser Messfehler führt zu einer Verzerrung der Korrelation zwischen:-abhängigen ...
  • Ursachen für Common-Method-Bias -Single Source Bias-Charakteristika der Items (uneindeutige Formulierungen; implizit enthaltene Lösungsansätze; sozial erwünschte Antworten; etc.)-Item Kontext (Positionierung und Gruppierung der Items ...