Entscheidungstheorie (Fach) / Kapitel VIII: Die Generierung von Wahrscheinlichkeiten (Lektion)
In dieser Lektion befinden sich 8 Karteikarten
Die Generierung von Wahrscheinlichkeiten
Diese Lektion wurde von Schlolli1802 erstellt.
Diese Lektion ist leider nicht zum lernen freigegeben.
- Wahrscheinlichkeitsinterpretationen aus mathematischer Sicht wird der Begriff „Wahrscheinlichkeit“ durch die 3 Axiome von Kolmogoroff abgegrenzt: allerdings sagt dies nichts darüber aus, wie Wahrscheinlichkeiten zu messen und inhaltlich zu interpretieren sind man unterscheidet 3 Wahrscheinlichkeitsinterpretationen: 1) die frequentistische Interpretation 2) die symmetrieabhängige Interpretation 3) die subjektivistische Interpretation
- Subjektivistische Wahrscheinlichkeitsinterpretation Wahrscheinlichkeit ist keine objektiv feststellbare Eigenschaft der Umwelt, sondern der Grad des Vertrauens einer Person in den Eintritt eines Ereignisses sie ist abhängig vom Wissensstand und der Informationsverarbeitung einer Person, d.h. faktisches Wissen über das Ereignis ist nur dann relevant, wenn die Person über dieses Wissen verfügt folglich können verschiedene Personen demselben Ereignis legitimerweise unterschiedliche Wahrscheinlichkeiten zuordnen subjektivistische Interpretation ist in der modernen ET vorherrschend subjektivistische Interpretation wird von vielen Wissenschaftlern allerdings abgelehnt, weil sie „nach Objektivität streben“ Diskussion wird zum Teil sehr kontrovers geführt
- Quantifizierung von Wahrscheinlichkeiten Erwartungen über unsichere Ereignisse werden meist in vager verbaler Form gebildet und kommuniziert Beispiele: Raucher haben ein hohes Lungenkrebsrisiko Deutschland könnte durchaus Fußballweltmeister werden In seltenen Fällen kann das Medikament starken Ausschlag am ganzen Körper zur Folge haben Nachteile solcher Ausdrücke: sie sind ungenau sie werden von unterschiedlichen Personen völlig unterschiedlich verstanden gerade in professionellen Bereichen herrscht eine starke Abneigung gegen quantitative Wahrscheinlichkeiten, z.B. „Es besteht eine geringe Aussicht, dass die Operation die Lebensdauer deutlich verlängert“
- Wahrscheinlichkeits-und Verteilungsfunktionen beschreiben die Verteilung der Wahrscheinlichkeiten von Zufallsvariablen bei diskreten Zufallsvariablen hat jede mögliche Ausprägung xi eine positive Wahrscheinlichkeit pi Wahrscheinlichkeitsfunktion p(x) ordnet jeder Zahl x eine Wahrscheinlichkeit pi zu, d.h. p(x) = pi, falls x = xi p(x) = 0, sonst Verteilungsfunktion P(x) gibt die Wahrscheinlichkeit an, dass die Zufallsvariable einen Wert kleiner oder gleich x annimmt, d.h. P(x) = Σ pi
- Messmethoden bei der Messung von Wahrscheinlichkeiten unterscheidet man direkte und indirekte Methoden bei direkter Messung antwortet der Befragte auf die Fragen des Interviewers mit einer Zahl, nämlich einer Wahrscheinlichkeit oder einem Wert für eine unsichere Variable für eine vorgegebene Wahrscheinlichkeit bei indirekter Messung stellt der Befragte Vergleiche zu einfachen Referenzsituationen her, aus denen man auf Wahrscheinlichkeiten schließen kann
- Messmethoden - Konsistenzprüfung Wahrscheinlichkeitsmessung ist ein fehleranfälliger Prozess daher sind Konsistenzprüfungen unerlässlich z.B. durch - wiederholte Befragung mit der gleichen Methode - Anwendung verschiedener Methoden Fehleranfälligkeit lässt sich dadurch senken, dass Befrager und Entscheider unterschiedliche Personen sind darüber hinaus sollte man sich der Existenz von systematischen Verzerrungen im Zusammenhang mit Wahrscheinlichkeitsurteilen bewusst sein, insb. a. unvollständige oder ungeeignete Datenbasis b. unkorrekte Verarbeitung von Wahrscheinlichkeiten c. unzureichende Kritik am eigenen Urteil
- Theorem von Bayes Formel zur Errechnung von Wahrscheinlichkeiten aus anderen Wahrscheinlichkeiten kann dazu benutzt werden, a-priori-Wahrscheinlichkeiten angesichts neuer Daten zu revidieren - man erhält: a-posteriori-Wahrscheinlichkeiten die „neuen Daten“ stellen bedingte Wahrscheinlichkeiten dar - diese nennt man: Likelihoods Ergebnisse des Bayes-Theorems sind häufig intuitiv nicht einfach nachvollziehbar Erklärung: Ereignis S mit möglichen Zuständen s1, ..., sn p(si): a-priori-Wahrscheinlichkeit Informationsereignis Y mit möglichen Zuständen y1, ..., ym Informationen, Aussagen, Beobachtungen, Prognosen zu dem bzw. über das Ereignis Qualität des Informationsereignisses wird als bedingte Wahrscheinlichkeit ausgedrückt p(yj|si): Likelihood gesucht ist die Wahrscheinlichkeit, dass bei gegebener Information yj der Umweltzustand sieintritt p(si|yj): a-posteriori-Wahrscheinlichkeit
- Einstufige und mehrstufige Entscheidungen Beispiel: Ölbohrung Fragestellungen: Entscheidung „ohne seismischen Test“ ? Entscheidung „mit seismischen Test“ ? Wie viel darf der seismische Test maximal kosten? Lösung: Mehrstufige Entscheidung Entscheidungsbaum