Marketing (Fach) / Teil 3: Methoden der Marktforschung (Lektion)
In dieser Lektion befinden sich 57 Karteikarten
<3
Diese Lektion wurde von Janaw55 erstellt.
- Daten als Grundlage für Managemententscheidungen Daten sind die Rohstoffe der Statistiker, die Tahlen, die wir verwenden, um die Realität zu erklären. Alle statistischen Probleme betreffen entweder das Sammeln, Beschreiben und Analysieren von Daten oder das Nachdenken über das Sammeln, Beschreiben und Analysieren von Daten → Kernkompetenz: Big Data, Social Media
- Wahl an Studienart 1. Explorativ - Fragestellung: Welche Ansprüce stellen Kunden an neue Mobile Payment Angebote? - Ziele: Strukturierung und Verständnis einer weitgehen unbekannten Untersuchungsthematik Identifikation relevanter Variablen - Instrument: Tiefeninterviews 2. Deskriptiv - Fragestellung: Wie zufrieden sind Kunden mit verschiedenen Aspekten einer Dienstleistung? Wie wird sich das Marktvolumen im Markt entwickeln? - Ziele: Erstellung von Prognosen Erfassung und präzise Beschreibung von relevanten Variablen - Instrument: Ad-hoc Befragung Paneldatenanalyse 3. Kausal - Fragestellung: Ist eine festgestellte Absatzsteigerung auf die geschaltete Werbekampagne zurück zu führen? - Ziele: Identifizierung und Quantifizierung vermiteter Ursache-Wirkungs-Beziehungen - Instrument: Experiment
- Wahl des Datentyps 1. Primärdatenerhebung Definition: Daten existerien noch nicht und müssen selbst oder durch Dritte erhoben werden Beispiel: Ad-hoc-Befragungen zu einem aktuellen Thema / Store-Test 2. Sekundärdatenerhebung Definition: Daten existieren bereits oder werden regelmäßig und in standartisierter Form durch Dritte erhoben Beispiel: Unternehmensinterne Umsatz-/Absatzstatistiken Panels bei Händlern und Kunden Bevölkerungsstatistiken Veröffentlichungen durch Forschungseinrichtungen (Universitäten) und Verbände regelmäßige Studen von Medienunternehmen (z.B. Best for Planning) Geschäftsberichte Couponauswertungen Frühere Primärdaten
- Vor- und Nachteile der Primärdatenerhebung + Optimale Anpassung der Daten an die Ziele des Projekts + Höhere Kontrolle über die Qualität der Daten - Hohe Kosten - Hoher Zeitaufwand
- Vor- und Nachteile der Sekundärdatenerhebung + Geringe Kosten + Geringer Zeitbedaf (sofern die Daten schon vorliegen) - Keine optimale Anpassung auf konkrete Fragestellung und Ziele des Projekts - Weniger Kontrolle über die Qualität der Daten
- Auswahl von Erhebungsobjekten: Umfang der Datenerhebung 1. Festlegung der relevanten Grundgesamtheit (abhängig vom Untersuchungsgegenstand) 2. Vollerhebungen sind zeit- und kostenintensiv, deshalb nur bei kleiner Grundgesamtheit hoher Streuung hohen Irrtumskosten 3. Teilerhebung: Erfassung eines Teils der Grundgesamtheit (Stichprobe) mit dem Ziel, aufgrund der Ergebnisse der Teilmenge eine möglichst repräsentative Aussage über die Grundgesamtheit treffen zu können 4. Systematischer versus zufälliger Fehler bei Teilerhebungen
- Elemente des Auswahlplans 1. Festlegung der Auswahlbasis 2. Festlegung des Auswhalprinzips a. nicht-zufällige Auswahl → 3. Wahl des Auswahltyps Quotenverfahren Konzentrationsverfahren Auswahl auf Geratewohl → 4. Festlegung des Auswahlumfangs b. zufällige Auswahl → 3. Wahl des Auswahltyps Einfache Auswahl Geschichtete Auswahl Klumpenauswahl → 4. Festlegung der Auswahltechnik Auswahl durch Zufallsprozess Auswahl mit Zufallszahlen Systematische Auswahl → 5. Festlegung des Auswahlumfangs
- Konstrukt Etwas, das man messen möchte direkt bzw. eindeutig beobachtbar (z.B. Farbe eines Produkts, Alter eines Probanden) nicht direkt beobachtbar (hypothetisches Konstrukt),z.B. Involvement, Zufriedenheit, Markenloyalität, Einstellung (Fishbein) werden häufig über mehrere Items, sog. Multi-Item-Skalen gemessen
- Item/ Indikator Einzelne Merkmale, deren Ausprägungen gemessen werden soll
- Skalieren Zuweisung von Zahlenwerten zu den Merkmalsausprägungen
- Skalentypen 1. Binäre Nominalskala: Nur 2 Ausprägungen (Geschlecht, Fahren sie einen BMW?) 2. Nominalskala: Mehrere Ausprägungen ohne Rangfolge (Farben) 3. Ordinalskala: (Rangfolge ohne äquidistante Abstände) 4. Intervallskala: Ratingskala l Äquidistante Abstände, aritmetisches Mittel bildbar 5. Verhältnisskala: Ratioskala l Äquidistante Abstände und Verhältnis, aritmetisches Mittel bildbar, Regressionsanalyse
- Phasen des Marktforschungsprozesses Formulierung des Entscheidungsproblems und Klärung des Informationsbedarfs Wahl der Studienart: Explorativ, Deskriptiv, Kausal Wahl des Datentyps: Primär- versus Sekundärforschung Auswahl von Erhebungsobjekten Variablenauswahl und Skalierung Befragung und Beobachtung Datenanalyse Datengütebeurteilung
- Mündliche Befragung Persönliches Inteview Face-to-Face Interview (hohe Rücklaufquote, hohe Kosten, Interviewereinfluss) Interviewort und -zeit abhängig von der Erreichbarkeit der Probanden Telefoninterview Mündliche Befragung per Telefon (hohe Rücklaufquote, hohe Kosten, Interviewereinfluss) Interviewzeit abhängig von der Erreichbarkeit der Probanden
- Schriftliche Befragung Postalische Befragung Versand von Fragenögen per Post (niedrige Rücklaufquote, niedrige Kosten) Selbstständiges Ausfüllen und Rücksenden des Fragebogens durch Probanden Online-Befragung (via Internet) Einladung zur Teilnahme an einer Internetbefragung (niedrige Rücklaufqupte, niedrige Kosten, hohe Flexibilität) Selbstständiges Beantworten der Online-Fragen
- Formen der Beobachtungen Persönliche Beobachtungen Feldbeobachtungen, z.B. Testkäufe (Mystery Shopping) Laboratoriums-Beobachtungen, z.B. Handhabung von Produkten/ Verpackungen Apparative Beobachtungen Feldbeobachtungen, z.B. Kundenlaufstudien, Scanning Laboratoriums-Beobachtungen, z.B. Hautwiderstandsmessung (z.B. Aktivierung), Eye-Tracking (z.B. bei Anzeigen, POS-Forschung, Usability-Forschung)
- Elektronische Testmärkte BEHAVIORSCAN der Gfk Sehr kostenintensiv, liefern aber umfangreiche Informationen
-
- Store-Tests Probeweise Einführung von Produkten in ausgewählten Geschäften für bestimmten Zeitraum Test von Verpackungen, Verkaufsförderungen, Preisen, Rangplatzierungen Käufer können nicht identifiziert werden
- Testmarktsimulation Ähnlich wie Store-Tests, allterdings unter Laborbedingungen Geringere Kosten, aber auch geringere Realitätsnähe Ablauf: Interview → Werbesimulation -> Kaufsimulation; Verwengung zu Hause; Nachinterview -> Kaufsimulation Zur Überprüfung kausaler Wirkungszusammenhänge müssen Experimente durchgeführt werden
- Definition Experimente Ein Experiment dient der Überprüfung einer Kausalhypothese, wobei eine oder mehrere unahängige Variablen bei gleichzeitiger Kontrolle aller anderen Einflussfakroten - variiert werden, um die Wirkung der unabhängigen auf die abhängigen Variablen messen zu können.
- Laborexperiment Künstliche Bedingungen, die die Realität vereinfachen In der Regel: Hohe interne Validität, geringe externe Validität
- Aufbau eines Experiments 1. Stichprobe A = Experimentalgruppe Verkaufsförderungsmaßnahme Messung Absatzmenge 2. Stichprobe B = Kontrollgruppe Keine Verkaufsförderungsmaßnahme Messung Absatzmenge ⇒ Bildung der Absatzmengendifferenz
- Definition Panels Panels erheben den gleichen Sachverhalt zu regelmäßig wiederkehrenden Zeitpunkten bei der gleichen Stichprobe in immer derselben Art und Weise und sind eine Möglichkeit zur Analyse dynamischer Effekte
- Panels zum Kaufverhalten Handelspanel: Erfassen die Abverkäufe des Handels Verbraucherpanel: Erfassen den Konsum von Verbrauchern Single-Source-Panel: Integrieren Daten verschiedener Quellen und kombinieren damit die Vorteile von Handels- und Verbraucherpanels (z.B. GfK BEHAVIORSCAN)
- Probleme mit Panels Panelsterblichkeit: ausgeschöpftes Marktforschungspotenzial Repräsentativitäts- und Validitätsprobleme (insb. Online Panels) Over- oder Underreporting
- Prozess der Datenauswertung 1. Daten aufbereiten und sichten Datenmatrix erstellen Missing Values behandeln Absolute und relative Häufigkeiten, Mittelwerte, Standartabweichungen analysieren 2. Daten versichten Faktoranalyse Clusteranalyse 3. Datenzusamenhänge analysieren Regressionsanalyse Logistische Regression Kausalanalysen 4. Präferenzen analysieren Multidimendionale Skalierung Direkte Befragungen Indirekte Befragungen: Conjoint-Analysen 5. Datengüte beurteilen Reliabilität Validität Generalisierbarkeit Praktikabilität
- Definition Clusteranalyse Clusteranalysen sind ein Standartinstrument für Marketingmanager, um z.B. Kunden zu segmentieren Ziel ist es, Objekte (z.B.Kunden) so zu Gruppen (Synonym:Clustern) zusammenzufassen, dass die Objekte innerhalb der Gruppen bezüglich ausgewählter Variablen möglichst ähnlich sind, die Gruppen untereinander aber möglichst unterschiedlich.
- Schritte der Clusteranalyse Auswahl der Variablen: Anhand welcher Variablen sollen die Cluster gebildet werden? Auswahl eines Proximitätsmaßes: Maß für die Ähnlichkeit bzw. Unähnlichkeit zwischen Objekten -> Minkowski-Metriken (Distanzmaß) Auswahl eines Gruppierungsalgorithmus: Wie werden die Cluster gebildet und die resultierenden neuen Ähnlichkeiten bzw. Distanzen zwischen den Objekten/Clustern ermittelt? -> Single-Linkage Verfahren Bestimmung der Gruppenzahl: In wie viele Cluster sollen die Objekte gruppiert werden? -> Dendrogramm Interpretation der Cluster
- Definition Regressionsanalyse Analysiert den Zusammenhang zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen, wobei alle Variablen auf metrischem Skalenniveau vorliegen müssen. Ermöglicht den statistischen Test, ob die unabhängigen Variablen einen Effekt auf die abhängige Variable ausüben. Wenn dies der Fall ist, können Aussagen zur Richtung und Stärke des Einflusses gemacht werden. Absatz = ß + ß1 Preis + ß2 Werbebudget + ß3 Handzettel + e
- Clusteranalyse Zusammenfassung der Personen zu einem Cluster -> dient zur Marktsegmentierung
- City-Block-Distanz Rechtwinklinge Entfernung von Person 1 und Person 2 l(5-2)l + l(1-5)l
- Euklidische Distanz Direkte Entfernung der zwei Personen mithilfe des Satzes von Pythagoras √a2+b2=c
- Single-Linkage Verfahren Berechnung der Distanz zwischen Clustern d (1/2)3=min (d13;d23)
-
- Problem bei der Clusteranalyse Trade-Off zwischen Genauigkeit und Menge der Cluster w
- Marktreaktionsfunktion Marktreaktionsfunktionen stellen den funktionalen Zusammenhang zwischen den eingesetzten Marketing-Mix-Instrumenten und einem absatzwirtschaftlichen Ziel dar. Ausgangspunkt der Marketing-Mix-Optimierung Absatzwirtschaftliches Ziel = f (eingesetzte Marketing-Mix-Instrumente) Absatzwirtschaftliches Ziel = Absatz (Menge), Umsatz (Euro), Marktanteil, Deckungsbeitrag Instrumente = Kommunikationspolitik, Preispolitik, etc.
- Schätzungsergebnisse der Regression SIGNIFIKANT Preis hat signifikant negativen Einfluss und Handzettelverteilung signifikant positiven Einfluss auf Absatz Wird der Preis um eine Einheit erhöht, verringert sich der Absatz c.p. um .. Stück NICHT SIGNIFIKANT Für das Webebudget kann nicht entschieden werden, ob der geschätzte Regressionskoeffiziern auf systematische oder zufällige Effekte zurückzuführen ist. Das Werbebudget ist nicht signifikant, d.h. der Effekt ist zufällig und darf nicht in seiner Richtung und Stärke interpretiert werden. Nutzung der Marktreaktionsfunktion, um den Einsatz der Marketinginstrumente zu optimieren
- Schätzung der Regressionsfunktion Einfache Regression: yk=ß0+ß1xk+ ek y^= ß0+ß1xk Standartfehler = systematscher Zufallsfehler, wenn hoch, dann ist der Koeffizient unsicher geschätzt t- Wert = Koeffizient/Standartfehler, wenn >2, Fehler ist systematisch und nicht zufällig Signifikanzniveau = Wahrscheinlichkeit, dass der Effekt in der Grundgesamtheit nicht vorhanden ist, muss <5% Die Schätzung basiert auf der Idee der Kleinsten Quadrate ∑ek² → min = ∑(y-y^)² → min = ∑(y-(ß0+ß1xk))² → min
- Kriterien der Datengütebeurteilung 1. Reliabilität Minimierung der Zufallsfehler, d.h. Messungenauigkeit, d.h. der Zufallsschwankungen um den wahren Wert Erreicht man das gleiche Ergebnis bei Messiwederholung? Gängiges Konzept, z.B. Test-retest-reliability 2. Validität Minimierung systematischer Fehler Misst man das, was man Messen will? Gängiges Konzept: Face-Validität (gemessen was man messen wollte?), Konvergenzvalidität (führen alle Konstrukte zum selben Ergebnis), diskriminierende Validität 3. Generalisierbarkeit Lassen sich die Ergebnisse in sachlicher, räumlicher und zeitlicher Hinsicht verallgemeinern? 4. Praktikabilität: Ist die Datenanalysemethode für den Untersuchungszweck angemessen und ökonomisch sinnvoll?
- Ursachen für systematische Fehler Falsche Definition der Grundgesamtheit Fehler in der Datenanalyse Suggestives Fragen durch Interviewer, z.B. Non-Rsponse-Fälle Falschantworten durch die Probanden
- Definition Experiment Gestaltungsform für Befragungen und BeobachtungenKontrollierte Form des Tests
- Feldexperiment wird in der natürlichen Umgebung der Testpersonen durchgeführt In der Regel hohe externe Validität, aber: Kontrolle von Störgrößen ist schwieriger (geringere interne Validität) Kosten- und Zeitbedarf ist meist hoch Aktivitäten sind für Wettbewerber sichtbar und sie können reagieren → Überraschungseffekt fällt weg,
- Interpretation Bestimmtheitsmaß x% der Varianz von Y lassen sich durch das Regressionsmodell erklären. R2 stellt die durch das Regressionsmodel erklärte Abweichungsquadratsumme bezogen auf die gesamte Abweichungsquadratsumme dar.
- Definition klassische Konditionierung Ein bislang unbedeutender Reiz wird mit einem emotional bedeutsamen Reiz verbunden, diese Verbidung wird durch häufiges Wiederholen gelernt, so dass am Ende der ursprünglich unbedeutsame Reiz emotional aufgeladen ist.
- Ziel klassische Konditionierung Die klassische Konditionierung dient: Der Schaffung einer positiven Wahrnehmungsatmosphäre. Der Vermittlung emotionaler Konsumerlebnisse zur Produktdifferenzierung.
- Geschichtetes Verfahren Einteilung der Grundgesamtheit in Schichten. Schichten sind in sich homogen, untereinander jedoch heterogen. Aus jeder Schicht werden zufällig Personen gezogen. Bsp.: Einteilung von Unternehmen gemäß Mitarbeiteranzahl in 10 Größenkategorien. Zufällig Auswahl von 5 Unternehmen pro Kategorie.
- Klumpenverfahren Einteilung der Grundgesamtheit in Klumpen. Klumpen schließen sich gegenseitig aus. Aus der Gesamtzahl der Klumpen werden zufällig Klumpen gezogen. Aus dem gezogenen Klumpen werden ALLE Personen erhoben. Bsp.: Einteilung aller Studierender der Uni Köln in Fakultäten (=Klumpen).
- Einfache Zufallsauswahl Jedes Objekt der Grundgesamtheit hat die gleiche Chance gezogen zu werden.
- Systematischer Fehler Eine systematische Verzerrung in den Daten, z. B. auf Grund eines Fehlers im Fragebogen, oder bei der Datenerhebung (z. B. Interviewerbias). Kann bei allen Arten von Erhebungen (Teil- und Vollerhebung) vorkommen.
- Zufälliger Fehler Dieser Fehler ist rein zufällig entstanden auf Grund der Teilstichprobe. Dieser Fehler kann bei einer Vollerhebung nicht vorkommen.
- Diskriminierende Validität Diskriminierende Validität liegt vor, wenn unterschiedliche Messinstrumente, die ganz unterschiedliche Konstrukte messen schwach miteinanderkorrelieren. Schwache (kleine) Korrelation = hohe diskriminierende Validität
- Konvergenzvalidität Konvergenzvalidität liegt vor, wenn unterschiedliche Messinstrumente, die dasselbe Konstrukt messen, stark miteinander korrelieren. Starke (hohe) Korrelation = hohe Konvergenzvalidität
-