Betriebswirtschaft (BWL) (Subject) / Quantitative Methoden (Lesson)

There are 71 cards in this lesson

SS 2016

This lesson was created by aussie007.

Learn lesson

  • Induktion Der Empiriker bewegt sich von den Fakten zur Formulierung von Gesetzesaussagen, die die Fakten beschreiben. (Vom Besonderem zum Allgemeinem)
  • Deduktion Der Theoretike geht von einem allgemeinem Grundsatz oder einer "dumpfen" Ahnung aus und sucht nach Evidenz, die den Grundsatz bekräftigen soll. (Vom Allgemeinem zum Besonderem)
  • Definition Hypothesen Sind die Annahmen über reale Sachverhalte (empirischer Gehalt, empirische Untersuchbarkeit) in Form von Konditionalsätzen. Sie weisen über den Einzelfall hinaus (Generalisierbarkeit, Allgemeinheitsgrad) und sind durch Erfahrungsdaten widerlegbar (Falsifizierbarkeit).
  • Kriterien einer wissenschaftlichen Hypothese 1. Sie bezieht sich auf reale Sachverhalte, die empirisch untersuchbar sind2. Sie ist eine allgemein gültige, über den Einzelfall oder ein singuläres Ereignis hinausgehende Behauptung (“All-Satz”)3. Sie muss zumindest implizit die Formalstruktur eines sinnvollen Konditionalsatzes (“Wenn-dann-Satz” bzw. “Je-desto-Satz”) zugrunde liegen haben4. Der Konditionalsatz muss potenziell falsifizierbar sein, d.h., es müssen Ereignisse denkbar sein, die dem Konditionalsatze widersprechen
  • Statistische Hypothesen Statistische Hypothesen sind definiert als Annahmen über die Verteilung einer oder mehrerer Parameter dieser Verteilung.-Bei statistischen Hypothesen handelt es sich um Wahrscheinlichkeitsaussagen-D.h. die Variablenbeziehungen sind nicht deterministisch, sondern probabilistisch-D.h. es werden Aussagen über die Tendenz von Gruppen (z.B. Gruppenmittelwerte) und nicht über jeden Einzelfall gemacht= Aggregationshypothesen!-Bei Aggregationshypothesen werden die individuellen Daten der einzelnen Untersuchungsteilnehmer zu einem Gesamtwert aggregiert. Prognosen werden erst über diesen Gesamtwert gemacht
  • Reliabilität Grad der Reliabilität:-Messinstrumente messen höchst zuverlässig mit stabilen Ergebnissen-Alternative Messinstrumente/ Messdurchführende kommen zum gleichen Ergebnis Wie wird Reliabilität erreicht?-Passgenaue Instrumente aussuchen-Instrumente müssen funktionieren und exakt messen-Sorgfältige Auswahl angemessener Methoden
  • Validität Grad der Genauigkeit-Wird gemessen, was gemessen werden soll? Fehlerquellen-Suchfragen, die zu große Antwortspielräume haben-Zu kleine Stichprobe-Falsche Stichprobenauswahl Inhaltsgültige Ergebnisse erzielen-Die richtigen Inhaltsbereiche bearbeiten-Fragen passgenau formulieren-Um Irritationen zu vermeiden: wichtige Begriffe definieren-Stichprobe muss repräsentativ und groß genug sein
  • Zufallsfehler xR -Beinhaltet Größen, die zufällig und bei jeder Messung mit anderer Stärke die Messergebnisse beeinflussen-Reliabilität (Zuverlässigkeit): Stabilität der Messwerte bei wiederholten oder parallelen Messungen unter gleichen Rahmenbedingungen
  • Systematischer Fehler xS -Tritt bei jeder Messung in gleicher Höhe auf-Validität (Gültigkeit): erhaltene Messungen spiegeln die wirkliche Höhe der Messgröße wider
  • Test-Retest Reliabilität - Die Messung an einem Objekt sollte über die Zeit stabil sein- Statistisch: Korrelation der Messwertreihen (rt1t2)
  • Interne Konsistenz - Test, inwiefern einzelne Items dasselbe messen- Somit „Quasi-Paralleltest“ jedes einzelnen Item- Praktisch: Test mittels Cronbach‘s Alpha
  • Interrater Reliabilität - An einem Objekt wird durch zwei unterschiedliche Messinstrumentedieselbe Messung vorgenommen- Die Messergebnisse sollten dabei gleich sein- Beispiel: Bewertung Ihrer Klausurleistung. Zwei Prüfer sollten zum gleichen Ergebnis kommen ;-)- Statistisch: Anteil der wahren Varianz (rtt) an der beobachteten Varianz (s²t)
  • Inhaltsvalidität (Face Validity) - Inhalt der Test-Items erfassen das zu messende Konstrukt erschöpfend- Höhe der Inhaltsvalidität kann nicht numerisch bestimmt werden
  • Kriteriumsvalidität: - Liegt vor, wenn der Test zur Messung eines latenten Konstruktes mit dem Test einer korrespondierenden manifesten Variablen übereinstimmt
  • Konstruktvalidität - Liegt vor, wenn aus dem zu messenden Zielkonstrukt Hypothesen ableitbar sind, die anhand der Testwerte bestätigt werden können
  • Definition Messung Messung ist die Zuordnung von Zahlen zu Objekten, bei denen die Zahlenrelationen analoge Relationen bei den Objekten wiedergeben (Isomorphie)
  • Objekte/Merkmalsträger: z.B. Personen, Gegenstände (Verpackung, Preis usw.) – Merkmale: Sammelbegriff für Eigenschaften, Verhaltensweisen usw.; z.B. Alter,Kaufverhalten, Benutzerfreundlichkeit– Ausprägung: numerische Werte zur Kennzeichnung der Merkmale– Geometrische Interpretation:• eindimensionales Merkmal (z.B. Alter) = Gerade• mehrdimensionales Merkmal (z.B. Anmutungsqualität von Produkten) =Fläche bzw. Raum: Achsen = Komponenten des Merkmals-durch Zuweisung von Werten wird Objekt als Punkt auf der Geraden oder auf der Flächen bzw. im Raum festgelegt-Erzeugung von Relationen der Punkte zueinander
  • Messinstrumente – Skala: Maßstab, der einem Merkmalsträger einen Skalenwert zuzuteilen erlaubt– Manifest: bspw. Thermometer– Latent: bspw. Kundenzufriedenheit
  • Operationalisierung eines hypothetischen Konstrukts • Zerlegung in verschiedene Dimensionen und Ableitung beobachtbarer und direkt messbarer Größen (Indikatoren)• Ermittlung der Indikatorwerte: Vorgabe von Items– Item = Grundbauelement einer Skala (Frage, Aussage, Meinung, Beschreibung o.ä.)• Itemwert = einer Reaktion der Auskunftsperson zugeordnete Zahl
  • Qualitative Methoden - Charakteristika -offen, flexibel und umfassend angelegt-„hypothesensuchend“, schrittweiseTheoriebildung und -weiterentwicklung-Suche nach relevanten Inhalten-Ziel: Maximierung der Validität-Orientierung am Untersuchungsgegenstand (Methode untergeordnet)-kleinere Stichprobe-gezielte Stichprobenauswahl („theoreticalsampling“)-explikative Datenanalyse (Anreicherung, Interpretation) ->verstehen, interpretieren
  • Quantitative Methoden - Charakeristika -standardisiert, strukturiert-„hypothesenprüfend“, ex ante Hypo- thesenbildung- Messen festgelegter Inhalte- Ziel: Maximierung der Reliabilität- Methodenorientierung- große Stichprobe- repräsentative Stichprobenauswahl- Informationsgewinn durch Datenreduktion -> messen
  • Qualitative Methoden - Vorraussetzungen -Kenntnisse und Eingrenzung des Untersuchungsgebietes-Stichprobengröße:-abhängig von der konkreten Fragestellung ab 10 Personen (wichtig: theoretische Sättigung)-Stichprobenzusammensetzung:theoretical sampling, der Fragestellung angepasst, heterogen und möglichst typische Vertreter
  • Quantitative Methoden - Vorraussetzungen -Sachlogisches Wissen, um Hypothesen oder theoretisches Modell aufstellen zu können-ausreichende Kenntnisse über relevante Inhalte und Beurteilungskriterien für die Entwicklung der Forschungsinstrumente-Stichprobengröße und Zusammensetzung:-möglichst große Stichprobe, idealerweise Zufallsauswahl, sonst Quotenauswahl oder ähnliche repräsentative Auswahlmethoden-Generalisierbarkeit
  • Qualitative Methoden - Einsatzgebiete -Generierung von Hypothesen-Erkundung von Ursachen-Aufstellen von Klassifikationen oder Typologien-Ermittlung von relevanten Beurteilungskriterien-z.B.: Generierung von Produktideen, Verbesserungsvorschlägen, Konzepttests, …-Typische Verfahren: Fokusgruppen, Tiefeninterviews, Case Studies, Beobachtungen, Grounded Theory
  • Quantitative Methoden - Einsatzgebiete -Testen von Hypothesen-Quantifizierung von Sachverhalten-Überprüfung statistischer Zusammenhänge-Überprüfung und Darstellung von zahlenmäßigen V eränderungen-z.B.: Produkt- und Markttests, Kundenzufriedenheitsanalysen, repetitive Umfragen, Investitionsentscheidungen, …-Typische Verfahren: Primärdatenanalyse, Sekundärdatenanalalyse, multivariate Datenanalyse
  • Qualitative Methoden - Durchführung -Definition der Fragestellung-Entscheidung über Art und Strukturierungsgrad der Methode-Entwicklung des Interview-/Beobachtungs-/ Diskussionsleitfadens etc.-Schulung der Interviewer/Beobachter/Diskussionsleiter etc.-Rekrutierung der Teilnehmer-Durchführung und Protokollierung der Befragung/Beobachtung-Kodierung, Interpretation und Aggregation textueller, visueller und akustischer Daten-Ergebniszusammenstellung und- präsentation
  • Quantitative Methoden - Durchführung -Definition der Fragestellung-Einholen aller verfügbaren Informationen über den Untersuchungsgegenstand-Konstruktion des Erhebungsinstruments (Fragebogen, Beobachtungsschema, quantitativer Interviewleitfaden etc.)-Pretest des Erhebungsinstruments-Datenerhebung-Dateneingabe-Quantitativ-statistische Auswertung-Interpretation der Ergebnisse und gefundenen Zusammenhänge-Ergebnispräsentation/Berichterstellung
  • Vollerhebungen Vollerhebungen sind aufwändig und teuer, deshalb nur bei:-kleiner Grundgesamtheit-hoher Streuung-hohen Kosten des Irrtums
  • Teilerhebung -Bei einer Teilerhebung wird nur eine Teilmenge der Grundgesamtheit erfasst -Beim Gestalten von Teilerhebungen gibt es einen Trade-off zwischen Kosten und Genauigkeit
  • Erstellung eines Auswahlplans 1. Bestimmung der Grundgesamtheit2. Bestimmung des Auswahlplans (nicht behandelt)3. Festlegung des Stichprobenumfangs4. Auswahlprinzip und Auswahltechnik5. Entscheidung über die Auswahltechnik (nicht behandelt
  • Definition Auswahleinheiten Element oder eine Gruppe von Elementen, die auf einer bestimmten Stufe des Auswahlvorgangs zur Verfügung stehen
  • Verfahren der Zufallsauswahl (Random Sampling) -Für jedes Element der Grundgesamtheit ist die Wahrscheinlichkeit, in die Stichprobe zu gelangen, bekannt und größer Null-Mit zunehmender Größe der Stichprobe steigt die Wahrscheinlichkeit ihrer Repräsentativität-Vorteil:Mathematische Berechenbarkeit des Zufallsfehlers-Nachteile:Höhere Kosten für Planung und DurchführungKeine Substituierbarkeit der ausgewählten Einheiten
  • Einfache, reine Zufallsauswahl - Urnenmodell (Lotterieauswahl): Alle Elemente haben gleiche Auswahlwahrscheinlichkeit- Setzt voraus, dass die Grundgesamtheit vollständig vorliegt und zugänglich ist- Vorteil: Kenntnis der Merkmalsstruktur der Grundgesamtheit nicht erforderlichArten:- Auswahl mit Zufallszahlen (Tabellen bzw. Generator)- Systematische Zufallsauswahl (Startpunkt t, danach jedes n/N-te Element)- Schlussziffernverfahren (alle Elemente mit einer bestimmten Endziffer)- Buchstabenauswahl (alle Elemente mit bestimmten Anfangsbuchstaben)Zufallsprinzip: Zufallsauswahl (Random Sampling)
  • Geschichtete Zufallsauswahl (Stratified Sampling) - Unterteilung der Grundgesamtheit in mehrere Untergruppen (Schichten) ->daraus jeweils separate Stichprobenbildung- Geeignet bei heterogener Grundgesamtheit mit relativ homogenen Teilgruppen- Ziel: Reduktion des Stichprobenfehlers- Voraussetzung: Verteilung der Merkmalsdimensionen ist bekannt Arten:- Proportional geschichtete Stichprobe: Verhältnis der Schichten in der Stichprobe äquivalent zu Grundgesamtheit- Disproportional geschichtete Stichprobe: kleinere Schichten erhalten ein disproportional höheres Gewicht (z.B. besonders umsatzstarke Betriebe)• Optimal geschichtete Stichprobe: Ziel ist Minimierung des Zufallsfehlers ->höhere Heterogenität der Schicht = größere StichprobeZufallsprinzip: Geschichtete Zufallsauswahl (Strarified Sampling)
  • Klumpenauswahl (Cluster Sampling) -Unterteilung der Grundgesamtheit in mehrere „Klumpen“, d.h. (meist „natürliche“) Konglomerate von Untersuchungseinheiten-Zufallsauswahl einer bestimmten Anzahl von Klumpen - alle Elemente werden in die Stichprobe einbezogen-Vorteile:->Grundgesamtheit muss weder vollständig vorliegen, noch muss ihre Struktur im Einzelnen bekannt sein->Praktische Vorteile: z.B. beim Flächenstichproben-Verfahren (Häuserblocks) - Adressen nicht notwendig, geringe Kosten durch räumliche Konzentration-Gefahr:-> Klumpen-Effekt: wenn ausgewählte Cluster in sich homogen, aber von der Grundgesamtheit stark abweichend strukturiert sind (z.B. Altersheime)     -->gravierende Ergebnisverzerrungen!
  • Verfahren der bewussten Auswahl (Non-Random Sampling) -Konstruktion der Stichprobe durch gezielte Auswahl nach sachrelevanten Merkmalen ->Auch hier: Ziel ist Repräsentativität für die GrundgesamtheitVorteile:- Zumeist kostengünstig, schnell, elastisch handhabbar- Oft anwendbar, wenn Zufallsauswahl nicht/nur mit großem Aufwand eingesetzt werden kannNachteile:- Zufallsfehler nicht mathematisch berechenbar- Alle eine Zufallsauswahl voraussetzenden Auswertungs- und Testverfahren können (streng genommen) nicht angewendet werden- Verzerrung durch Ausfälle, Verweigerungen etc. ist unbekannt
  • Quoten-Auswahl (Quota Sampling) -Ziel ist Erstellung eines Modells (Stichprobe) der Grundgesamtheit, das in allen Merkmalen für die Grundgesamtheit repräsentativ ist-Setzt Kenntnis über Merkmale (Quoten) und deren anteilige Verteilung in der Grundgesamtheit voraus (z.B. Männer 45%, Frauen 55%)Schwierigkeiten:- Viele interessierende Quotierungsmerkmale sind hinsichtlich ihrer Verteilung in der Grundgesamtheit nicht von vornherein bekannt-Zusatzaufwand durch Vorab-Erhebungen-Nötige Korrelation zwischen Untersuchungs- und Quotierungsmerkmalen ist u.U. nicht oder nur indirekt gegeben (z.B. Geschlecht und Theaterbesuch)-Praktisch können nur wenige Merkmale quotiert werden, da die Erhebung sonst zu schwierig wird-Interviewer wählt selbst Auskunftspersonen aus, solange sie den vorgegebenen Quoten entsprechen-Gefahr von Verzerrungen verursacht durch den Interviewer-ABER: Quota-Verfahren hat sich vielfältig bewährt und sich in einer Reihe von Vergleichstests den Random-Verfahren als ebenbürtig erwiesen
  • Cut-off-Verfahren (Konzentrationsverfahren) -Beschränkung der Erhebung auf für den Untersuchungstatbestand besonders bedeutende Elemente der Grundgesamtheit-Verfahren eignet sich nur, bei starkem Ungleichgewicht zwischen den einzelnen Elementen der Grundgesamtheit und/oder relativ wenigen Untersuchungsobjekten, die einen sehr hohen Erklärungsbeitrag für die zu untersuchenden Sachverhalte liefern können-Anwendung: z.B. Investitionsgüter-MarktforschungBefragung führender Großbetriebe bringt vielfach weitreichende Ergebnisse -> Ausdehnung auf übrige Betriebe wäre unwirtschaftlich
  • Pretest - Warum testen wir den Fragebogen? Inhaltliche Verständlichkeit:-Eindeutigkeit für Befragten + Interviewer-Verständnis der Fragen -Schwierigkeit der Fragen-Interesse, Aufmerksamkeit-Kontinuität/Fluss des Interviewablaufs -Kontexteffekte, Ausstrahlungs-, Trichterungs- und Filtereffekte-Grobe Einschätzung der zu erwartenden Daten:-Sind die Instrumente geeignet, meine theoretischen Konstrukte zu messen?-genügend Varianz der Antworten-Validität + Reliabilität-Dauer der Befragung-Fehlen relevante Aspekte?
  • Pretest - Wie kann ich einen Pretest durchführen? Qualitativ: Man bespricht mit potentiellen Probanden den Fragebogen durch-Testung der Validität-Verständlichkeit-VollständigkeitQuantitativ: Man erhebt eine kleine Stichprobe und wertet die Ergebnisse aus-Testung der Reliabilität-Verteilung der Ergebnisse-Missing Value Tendenz
  • Datenquellen: Primär- vs. Sekundärdaten Erhebungsmethode nach Datenquelle:-Primärdaten – Erhebung spezifisch für das vorliegende Problem-Sekundärdaten – bereits für andere Zwecke erhobenVorteile:- Leicht und schnell zugänglich, meist kostengünstig- Verfügbar für Themen, für die Primärdatenerhebung durch ein Unternehmen unmöglich wäre (z.B. Bevölkerungsdaten)- Können bspw. zur Validierung von Primärdaten herangezogen werdenNachteile:- Ggf. für das vorliegende Thema nicht ausreichend relevant, akkurat, aktuell und/oder generalisierbar - Angewandte Erhebungsmethode ggf. nicht passend -> Deshalb: Sekundärdaten müssen stets auf Relevanz, Validität, Glaubwürdigkeit sowie mögliche Fehlerquellen geprüft werden
  • Querschnitt (Cross-Section) Verschiedene Unternehmen, Branchen etc. werden zu einem bestimmten Zeitpunkt betrachtet
  • Zeitreihe (Time Series) Ein Unternehmen, Branche etc. wird über eine Zeitspanne betrachtet
  • Panel Verschiedene Unternehmen, Branchen etc. werden über eine Zeitspannebetrachtet
  • Gepoolter Querschnitt (Pooled Cross-Section) Mischung aus Querschnitt und Zeitreihe. Die Querschnittseinheiten sindunabhängig voneinander .
  • Ausfälle (Non-Response-Bias) Der im Erhebungsdesign einer Untersuchung festgelegte Auswahlplan lässt sich in der Regel nicht vollständig realisieren, da es in der Praxis praktisch unmöglich ist, alle Informationen über alle nach dem Auswahlplan zu erfassenden Elemente der Stichprobe zu erhalten. Es kommt somit zu Ausfällen (= Non-Response).
  • Bei den Ausfällen unterscheidet man zwischen: -“Unable to answer” (Personen, die körperlich oder geistig nicht in der Lage sind zu antworten)-“Not at home” (Personen, zu denen kein Kontakt aufgenommen werden konnte)-“Refusals” (Personen, die diese Befragung explizit nicht beantworten)-Die Stichprobe ist verfälscht-Dies kann zu Verzerrungen führen!
  • Key-Informant-Bias Key Informant Methode:Für eine Studie wählt man einen nach Maßgabe der Kompetenz eine Person (Key Informant) aus, welcher am besten geeignet ist, um Auskunft über Sachverhalte wiederzugeben.(z.B.: Man würde den CFO bzgl. Fragen der finanziellen Lage befragen.)Wichtig: Key Informants werden nicht nach ihrer persönlichen Meinung/Verhalten/Beziehung/Einstellung gefragtProblem: Key Informants antworten nicht immer nur objektiv!=> Die Antworten der Key Informants können zu Verzerrungen führen (=Key Informant Bias)
  • Common-Method-Bias Unter Common-Method-Bias oder Common-Method-Variance versteht man einen Messfehler, der auf die Erhebungsmethode zurückzuführen ist.Dieser Messfehler führt zu einer Verzerrung der Korrelation zwischen:-abhängigen und unabhängigen Variablen, die nicht auf den tatsächlichen Zusammenhang zwischen den Variablen, sondern auf die Methodik der Erhebung zurückzuführen ist
  • Ursachen für Common-Method-Bias -Single Source Bias-Charakteristika der Items (uneindeutige Formulierungen; implizit enthaltene Lösungsansätze; sozial erwünschte Antworten; etc.)-Item Kontext (Positionierung und Gruppierung der Items kann zu kontext-induzierter Stimmung führen; überfordernde Skalenlängen)-Erhebungskontext (wann, wo und mit welchen Medien)Erinnerungen und vergangene Einflüsse durch: - Emotionale Verknüpfungen - Recency Effects (Aktualitäten)- RoutinenSoziale Erwünschtheit- Je weiter die eigene Einstellung von wahrgenommener „erwünschter“ Einstellung abweicht desto eher ist mit Antwortverzerrung zu rechnen.