Subjektive Wahrscheinlichkeitsinterpretation
Wahrscheinlichkeit ist keine objektiv feststellbare Eingenschaft der Umwelt sondern der Grad des Vertrauens einer Person in den Eintritt dieses Ereignisses ist abhängig vom Wissensstand und der Informationsverarbeitung einer Person, d.h. faktisches Wissen über das Ereignis ist nut dann relevant, wenn die Person über dieses Wissen verfügt Folglich können verschiedene Personen demselben Ereignis legitimerweise unterschiedliche Wahrscheinlichkeiten zuordnen subjektivistische Interpretation ist in der modernen ET vorherrschend, wird von vieen Wissenschaftlern allerdings abgelehnt, weil sie "nach Objektivität streben" Diskussion wid zum Teil sehr kontrovrs geführt (Menges.. "Lauf der Sterne"..)
Quantifizierung von Wahrscheinlichkeiten
Erwartungen über unsichere Ereignisse werden meist in vager verbaler Form gebildet und komminuziert Beispiel: "Raucher haben ein hohen Lungenkrebsrisiko" Nachteile solcher Ausdrücke: Unterschiedliche Wahrnehmung "There is a possibility that.." 5-70% "It is unlikely that".. 4-45% "It is probable that..:" 20-98% Gerade in professionellen Bereichen herrscht eine starke Abneigung gegen quantitative Wahrscheinlichkeiten, z.B. es besteht eine geringe Aussicht, dass die Operation die Lebensdauer deutlisch verlängert" §252 BGB
Wahrscheinlichkeits- und Verteilungsfunktionen
beschreiben die Verteilung der Wahrscheinlichkeiten von Zufallsvariablen Bei diskreten Zufallsvariablen hat jede mögliche Ausprägung x eine positive Wahrscheinlichkeit p ordnet die Wahrschienlichkeitsfunktion jeder Zahl x eine WS p(x) zu, d.h.p(x)=p falls x=x und p(x)=0 sonst Die Verteilungsfunktion P(X) gibt die Wahrschienlichkeit an, dass die Zufallsvariable einen Wert kleiner oder gleich x annimt, d.h. P(X)=∑p Wahrschienlichkeit = Balken, Verteilungsfunktion = Treppenfunktion
Messmethoden
Bei der Messung von Wahrschienlichkeiten unterscheidet man direkte und indirekte Methoden 1. Direkte Messung: Der Befrager anwortet auf die Interviewfrage mit einer Zahl, z.B. Mit einer Wahrscheinlichkeit Mit einem Wert für eine unsichere Variable für eine vorgegebene Wahrscheinlichkeit Wichtig: Wahrscheinlichkeitsmessung ist ein fehleranfälliger Prozess Konsistenzprüfunfen sind unerlässlich, z.B. durch wiederhole Befragung mit der gleichen Methode Anwendung verschiedener Methosen Bewusstsein über mathematische Verzerrungen durch unvollständige, ungeeignete Datenbasis unkorrekte Verarbeitung von Wahrscheinlichkeiten unzureichende Kritik am eigenen Urteil 2. Indirekte Messung: Der Befragte stellt Vergleiche zu einfachen Referenzsituationen her, aus denen man auf Wahrscheinlichkeiten schließen kann
Theorem von Bayes
Formel zu Errechnung von Wahrscheinlichkeiten aus anderen Wahrscheinlichkeiten kann dazu benutzt werden, a-priori Wahrscheinlichkeiten angesichts neuer Daten zu revidieren p(s) Man erhält a-posteriori-Wahrscheinlichkeiten p(sly) Die "neuen Daten" stellen bedingte Wahrscheinlichkeiten dar, diese nenn man Likelihoods p(yls) Erklärung: Ereignis S mit Zuständen s = p(s): a-priori Wahrscheinlichkeit Informationsereignis Y mit Zuständen y = Informationen, Aussagen, Beobachtungen, Prognosen zu dem Ereignis → Qualität des Y wird als p(yls): Likelihood formuliert Gesucht: Die Wahrschienlichkeit, dass bei gegebener Information der Umweltzustand s intritt p(sly): a-posteriori-Wahrscheinlichkeit
Die Simulation der Verteilung einer Variablen
= Allgemeines Verfahren zur Ermittlung von Wahrscheinlichkeitsverteilungen: Simulation beruht auf Zufallsstichproben berücksichtigt bei Bedarf auch mehrere unsichere Einflussgrößen Prinzip: Zerlegung in zufällige Einflussgrößen und funktionale Aggregation Diskrete Ereignisvariable: 1. Rechnerische Ermittlung der exakten Verteilung (Gewinn bei allen DB und Absatz) Tabelle erstellen Mögliche Ausprägungen in aufsteigender Reihenfolge kumulieren ---> Verteilungsfunktion: gibt für jeden Wert an, mit welcher Wahrscheinlichkeit er überschritten oder erreicht wird Risikoprofil: gibt für jeden Gewinn an, mit welcher Wahrcheinlichkeit er unterschritten oder erreicht wird 2. Approximation dieser Verteilung durch Simulation Zufällig eine Zahl aus der Verteilung der DB ziehen Ergebnis notieren, der Gewinn, der erzielt wird Vorgang n-mal wiederholen Gezogene Gewinne in aufsteigener Reihenfolge ordnen und die relative Häufigkeit f ermitteln Kulutation: kumulierte Häufigkeit F und die das Komplement 1-F f nimmt man als Approximation für die Wahrscheinlichkeit p, analog F für P und 1-F für 1-P Die Approximation ist umso besser, je größer n ist
Prinzip der Simulation beliebiger Verteilungen
gegeben: Zufallsgröße X, Verteilungfunktion P, Z gleichverteilt Wenn Z gleichverteilt auf dem Intervall (0,1) ist, dann haben die Zufallsvariablen PX-1 (Z) und X die gleiche Verteilung
Nutzung von Zufallsgeneratoren
Allgemeines Vorgehen anstelle der "Urnen"-Nutzung Bei stetigen Ereignisvariablen Nutzung eines EDV-gestützten Zufallsgenerators, erzeugt gleichverteilte Zufallszahlen im Intervall (0,1) diese lassen sich einfach in Verteilungen beliebiger Art transformieren Vorgehensweise: Vom Zufallsgenerator erzeugte Zufallszahl z wird in die Umkehrfunktion der Verteilungsfunktion eingesetzt, d.h. x =P-1(z) x ist dabei die simulierte Ausprägung der Zielvariablen nach n Wiederholungen nimmt man die relative Häufigkeit als Approximation für Wahrscheinlichkeiten Beispiel einer stetigen Variable: "Facelift"-Entscheidung l Unsicherheit: Investition, Steigerung ver AVC und Nachfrage + Wirkungsmodell für den Gewinn als Zielvariable Mit jedem Lauf des Generators erhält man einen Wert für M, k, I, woraus der Gewinn G berechnet wird nach 500 Wiederholungen werden die simulierten Gewinne aufsteigens sortiert relative Häufitkeit jedes Gewinns wird als Approximation der WS für diesen Gewinn genommen daraus lässt sich simulierte Verteilungsfunktion P und 1-P für den Gewinn ermitteln