Wenn $ A $ und $ B $ Ereignisse sind, bei denen $ P (A), P (B) > 0 $, wie kann ich die Wahrscheinlichkeit berechnen, dass beide Ereignisse aufgetreten sind? Das heißt, wie kann ich $ P (A \ cap B) $ bestimmen? Nun, wenn $ A $ und $ B $ unabhängige Ereignisse sind, dann weiß ich, dass $$ P (A \ cap B) ) = P (A) P (B) \ tag {1} $$ (das ist nur die Definition der Unabhängigkeit) und daher ist $ P (A \ cap B) $ einfach zu berechnen. Wäre es nicht wunderbar, wenn ich $ P (A \ cap B) $ im Allgemeinen als $ P (A) \ alpha (B; A) $ schreiben könnte, wobei $ \ alpha (B; A. ) $ ist eine Menge (offensichtlich abhängig von $ A $ und $ B $) mit der magischen Eigenschaft, dass $ P (A) \ alpha (B; A) $ den Wert $ P (A \ cap B) $ hat? Für all dies muss nun $ \ alpha (B; A) = P (B) $ sein, wenn $ A $ und $ B $ unabhängig sind (so dass $ (1) $ gilt). Wir können etwas mehr über diese magische Funktion sagen. Da $ (A \ cap B) \ Teilmenge A $ und damit $ P (A \ cap B) \ leq P (A) $ ist, hat $ \ alpha (B; A) $ den Maximalwert $ 1 $, und da ist es Möglicherweise kann $ P (A \ cap B) = 0 $, $ \ alpha (B; A) $ so klein wie $ 0 $ sein. Da $ \ alpha (B; A) $ immer einen Wert in $ [0,1] $ hat, das heißt, es sieht nach Wahrscheinlichkeit aus und quakt (handelt?) Wie eine Wahrscheinlichkeit, könnten wir es sogar als Wahrscheinlichkeit bezeichnen wenn wir möchten, außer wir haben nicht wirklich gesagt, was $ \ alpha (B; A) $ die Wahrscheinlichkeit von ist. Aber was auch immer das ist oder was es bedeutet, wir haben immer das $$ \ begin {align} P (A \ cap B) & = P (A) \ alpha (B; A) \ tag {2} \\\ alpha ( B; A) & = \ frac {P (A \ cap B)} {P (A)} \ tag {3} \ end {align} $$
Ähnlich, wenn wir die Rollen von vertauschen $ A $ und $ B $ oben können wir $$ \ begin {align} P (B \ cap A) schreiben. & = P (B) \ alpha (A; B) \ tag {4} \\\ alpha (A; B) & = \ frac {P (B \ cap A)} {P (B)} \ tag {5} \ end {align} $$ und da $ A \ cap B = B \ cap A $, wir können $ (2) $ und $ (4) $ verwenden, um daraus zu schließen, dass $$ P (A) \ alpha (B; A) = P (B) \ alpha (A; B) \ tag {6} $$ welche sieht fast genauso aus wie das, wonach das OP fragt.
Also, was sind diese Größen $ \ alpha (B; A) $ und $ \ alpha (A; B) $ das
sind "definiert" durch $ (3) $ und $ (5) $? Nun, eine Möglichkeit, darüber nachzudenken, besteht darin, zu berücksichtigen, dass, damit sowohl $ A $ als auch $ B $ aufgetreten sind, offensichtlich $ A $ aufgetreten sein muss (was die Wahrscheinlichkeit $ P (A) $ hat ) und vorausgesetzt , dass wir bereits angenommen haben, dass $ A $ aufgetreten ist, sollten wir $ \ alpha (B; A) $ als bedingte Wahrscheinlichkeit von $ B $ betrachten Geben Sie an, dass wir bereits angenommen haben, dass $ A $ aufgetreten ist. Daher nennen wir $ \ alpha (B; A) $ als
bedingte Wahrscheinlichkeit von $ B $, vorausgesetzt, $ A $ ist aufgetreten, bezeichnet mit $ P (B \ mid A) $ und definiert als $$ P (B \ mid A) = \ frac {P (A \ cap B)} {P (A)} ~ \ text {vorausgesetzt, dass} ~ P (A) > 0 . \ tag {7} $$
Beachten Sie, dass, wenn $ A $ und $ B $ unabhängig sind, $ P (B \ mid A) = P (B) $, d. h. Zu wissen, dass $ A $ aufgetreten ist, ändert nicht im geringsten Ihre Schätzung der Wahrscheinlichkeit von $ B $.
Alles in Ordnung und gut, aber was ist die Intuition dahinter Dies? Nun, viele Menschen verstehen Wahrscheinlichkeiten als langfristige relative Häufigkeiten und betrachten wir daher eine Folge von $ N $ -Versuchen des Experiments, $ N $ groß. Wenn das Ereignis $ A $ $ N_A $ mal bei diesen $ N $ -Versuchen aufgetreten ist und das Ereignis $ B $ bei $ N_B $ -Versuchen aufgetreten ist, dann ist $$ P (A) \ approx \ frac {N_A} {N}, \ quad P. (B) \ approx \ frac {N_B} {N}. $$ In ähnlicher Weise ist $$ P (A \ cap B) \ approx \ frac {N_ {A \ cap B}} {N} $$, wo wenote die Versuche bei denen $ A \ cap B $ aufgetreten ist, ist notwendigerweise eine Teilmenge der $ N_A $ -Versuche, bei denen $ A $ aufgetreten ist (sowie eine Teilmenge der $ N_B $ -Versuche, bei denen $ B $ aufgetreten ist). Aber $ P (B \ mid A) $ ist die (bedingte) Wahrscheinlichkeit von $ B $, wenn $ A $ aufgetreten ist. Betrachten wir also die $ N_A $ -Versuche, bei denen $ A $ aufgetreten ist. Wie hoch ist bei dieser Teilsequenz von $ N_A $ -Versuchen die relative Häufigkeit von $ B $? Nun, $ B $ trat bei genau $ N_ {A \ cap B} $ dieser $ N_A $ -Versuche auf, und so $$ P (B \ mid A) \ ungefähr \ frac {N_ {A \ cap B}} {N_A } = \ frac {\ frac {N_ {A \ cap B}} {N}} {\ frac {N_ {A}} {N}} \ ungefähr \ frac {P (A \ cap B)} {P (A. )} $$
Dies entspricht der Definition in $ (7) $.
OK, also lassen Sie jetzt das Down-Voting beginnen ....