Frage:
Warum ist $ p (A) \ mal p (B | A) = p (B) \ mal p (A | B) $?
TMOTTM
2015-02-14 19:31:57 UTC
view on stackexchange narkive permalink

Gibt es einen einfachen Weg oder ein einfaches Beispiel, um herauszufinden, warum es sein muss, dass

$$ p (A) \ mal p (B | A) = p (B) \ mal p (A | B) $$?

Ich verstehe, dass $ p (A) \ mal p (B | A) $ als Wahrscheinlichkeit des Auftretens von $ B $ angesehen werden kann, gewichtet mit der Wahrscheinlichkeit des Auftretens von $ A $ am Worauf wird diese Gleichung konditioniert? Was ist der Hintergrund für diese Gleichung und ist sie allgemein gültig?


Bearbeitete Frage

Gibt es einen einfachen Weg oder ein einfaches Beispiel, um herauszufinden, warum dann? es muss sein, dass

$$ p (A \ cap B) = p (A) p (B | A) $$?

Wenn ich an $ A $ und $ denke B $ als überlappende Kreise in einem Venn-Diagramm, dann scheint mir, dass $ B | A $ die Überlappung bereits beschreiben würde.

Es gilt, weil $ A \ cap B = B \ cap A $.Denken Sie an die Definition der bedingten Wahrscheinlichkeit: $ P (A \ mid B) = P (A \ cap B) / P (A) $, wenn $ P (A)> 0 $.
Wenn Sie nicht genau definieren, was Sie unter $ p (B \ mid A) $ und $ p (A \ mid B) $ verstehen, ist die Frage schwer zu beantworten.Wenn Sie mit $ P (B \ mid A) $ das Verhältnis $ P (B \ cap A) / P (A) $ meinen (vorausgesetzt, $ P (A)> 0 $), wie es Ihnen von @Zen, gezeigt wurde und sindbereit, den Austausch von $ A $ und $ B $ in Ihrer Definition zuzulassen und zu akzeptieren, dass $ P (A \ mid B) $ per Definition ** das Verhältnis $ P (A \ cap B) / P (ist)B) $ vorausgesetzt, dass $ P (B)> 0 $ ist, dann enthält Zens Kommentar, dass $ A \ cap B = B \ cap A $ alles enthält, was Sie brauchen, um zum Ergebnis zu gelangen.
Suchen Sie eine "philosophische" Antwort auf das, was wir unter der Notation "P (A | B)" verstehen?
Ich meine "Was ist der Hintergrund für diese Gleichung und ist sie allgemein gültig?"ist ziemlich breit.
Ich denke mein Problem liegt in der Definition.Woher kommt das?Aber das ist normalerweise der Punkt bei Definitionen.
Sieben antworten:
TrynnaDoStat
2015-02-14 21:21:16 UTC
view on stackexchange narkive permalink

Erinnern Sie sich zuerst an

$$P(A|B)=\frac{P(A∩B) werchendesP(B)}$$

und folglich

$$ P (A∩B) = P (A | B) P (B) $$

Der Trick hier besteht darin, die sehr einfache Tatsache zu erkennen, dass $ P (A∩ B) = P (B∩A) $. Diese Tatsache ist ziemlich intuitiv; Die Wahrscheinlichkeit, dass UNC gewinnt und Duke verliert, entspricht der Wahrscheinlichkeit, dass Duke verliert und UNC gewinnt. In Wirklichkeit haben wir also zwei Möglichkeiten:

$$ P (A∩B) = P (A | B) P (B) $$

und

$$P(B∩A)=P(B|A)P(A)$$

und so

$$ P (B | A) P ( A) = P (A | B) P (B) $$

Warum bestehen so viele Statistiker (oder vielleicht nur Möchtegern-Statistiker im Hinblick auf das Soubriquet TrynnaDoStat) darauf, dass die Bayes-Regel besagt, dass $$ P (A \ mid B) = \ frac {P (A \ cap B)} {P (B)}? $$ Ist dies nicht nur die Definition der bedingten Wahrscheinlichkeit von $ A $, vorausgesetzt, dass $ B $ aufgetreten ist (vorausgesetzt, $ P (B)> 0 $? Bayes 'Formel oder Bayes' Satz behandeltWas der Reverend _inverse_ Wahrscheinlichkeit nannte: Er sagt Ihnen, was $ P (B \ mid A) $ in Bezug auf $ P (A \ mid B) $ ist.
Ich möchte nicht über Namen diskutieren, es könnte, soweit es mich interessiert, Hühnertanzsatz heißen, aber http://en.wikipedia.org/wiki/Bayes%27_theorem#Statement_of_theorem
@TrynnaDoStat Du nimmst mein Problem tatsächlich vom Ende.Zur Verdeutlichung ist meine Frage viel eher, wie kommt es, dass $ p (A | B) p (B) = p (A \ cap B) $?Es ist nicht das Problem, dies auf eine andere Form umzustellen.Aber ich denke, ich verstehe jetzt besser, da ich den Hinweis auf die Kombination von A und B habe.
Ich verstehe, Ihre Frage verlangt eher nach einer intuitiven Erklärung, warum $ P (A | B) P (B) = P (A∩B) $?Möchten Sie einen Beweis oder eine intuitive Erklärung?
@TrynnadDoStat Haben Sie sich überhaupt die Mühe gemacht, den Link zu lesen, auf den Sie mich verwiesen haben?Es heißt nicht, dass die Bayes-Regel oder der Bayes-Satz (oder der Hühnertanz-Satz, wenn Sie so wollen) das ist, was Sie behaupten.-1 bis eine Bearbeitung Ihrer Antwort vorliegt.
@DilipSarwate Im Ernst, können wir es einfach dort lassen?"@ TrynnaDoStat" Genau.Aber ich glaube, ich bekomme das, wenn ich mir ein Venn-Diagramm ansehe.
@DilipSarwate Ich verstehe Ihren Standpunkt jetzt und werde "Bayes Theorem" aus meiner Antwort herausnehmen.
@TMOTTM Stört es Sie, Ihre Frage zu bearbeiten?Aufgrund der Diskussion in diesen Kommentaren scheint mir die Frage, die Sie wirklich stellen, eine intuitive Erklärung dafür zu sein, warum $ P (A | B) P (B) = P (A∩B) $, was sich von der Frage unterscheidetdu hast gefragt.
@TrynnaDoStat OK, ich habe meine Ablehnung rückgängig gemacht, aber Sie sollten wirklich auch einen weiteren Verweis auf den Satz von Bayes herausnehmen.Sie haben Recht, wenn Sie TMOTTM bitten, seine Frage zu überarbeiten.
@TrynnaDoStat Du hast recht.Aber ich merke das erst jetzt, als ich an diese Beziehung erinnert wurde.
Adrian
2015-02-14 22:53:14 UTC
view on stackexchange narkive permalink

Kurze Antwort in Worten: Beide sind gleich der Wahrscheinlichkeit des Auftretens von (A und B).

(Wahrscheinlichkeit von A) mal (Wahrscheinlichkeit von B, vorausgesetzt, dass A passiert ist) ist gleich ( Wahrscheinlichkeit, dass sowohl A als auch B auftreten).

In ähnlicher Weise ist (Wahrscheinlichkeit von B) mal (Wahrscheinlichkeit von A, vorausgesetzt, dass B aufgetreten ist) gleich (Wahrscheinlichkeit, dass sowohl A als auch B auftreten).

Das ist auch eine gute Art, es auszudrücken.
Dilip Sarwate
2015-02-15 06:01:01 UTC
view on stackexchange narkive permalink

Wenn $ A $ und $ B $ Ereignisse sind, bei denen $ P (A), P (B) > 0 $, wie kann ich die Wahrscheinlichkeit berechnen, dass beide Ereignisse aufgetreten sind? Das heißt, wie kann ich $ P (A \ cap B) $ bestimmen? Nun, wenn $ A $ und $ B $ unabhängige Ereignisse sind, dann weiß ich, dass $$ P (A \ cap B) ) = P (A) P (B) \ tag {1} $$ (das ist nur die Definition der Unabhängigkeit) und daher ist $ P (A \ cap B) $ einfach zu berechnen. Wäre es nicht wunderbar, wenn ich $ P (A \ cap B) $ im Allgemeinen als $ P (A) \ alpha (B; A) $ schreiben könnte, wobei $ \ alpha (B; A. ) $ ist eine Menge (offensichtlich abhängig von $ A $ und $ B $) mit der magischen Eigenschaft, dass $ P (A) \ alpha (B; A) $ den Wert $ P (A \ cap B) $ hat? Für all dies muss nun $ \ alpha (B; A) = P (B) $ sein, wenn $ A $ und $ B $ unabhängig sind (so dass $ (1) $ gilt). Wir können etwas mehr über diese magische Funktion sagen. Da $ (A \ cap B) \ Teilmenge A $ und damit $ P (A \ cap B) \ leq P (A) $ ist, hat $ \ alpha (B; A) $ den Maximalwert $ 1 $, und da ist es Möglicherweise kann $ P (A \ cap B) = 0 $, $ \ alpha (B; A) $ so klein wie $ 0 $ sein. Da $ \ alpha (B; A) $ immer einen Wert in $ [0,1] $ hat, das heißt, es sieht nach Wahrscheinlichkeit aus und quakt (handelt?) Wie eine Wahrscheinlichkeit, könnten wir es sogar als Wahrscheinlichkeit bezeichnen wenn wir möchten, außer wir haben nicht wirklich gesagt, was $ \ alpha (B; A) $ die Wahrscheinlichkeit von ist. Aber was auch immer das ist oder was es bedeutet, wir haben immer das $$ \ begin {align} P (A \ cap B) & = P (A) \ alpha (B; A) \ tag {2} \\\ alpha ( B; A) & = \ frac {P (A \ cap B)} {P (A)} \ tag {3} \ end {align} $$

Ähnlich, wenn wir die Rollen von vertauschen $ A $ und $ B $ oben können wir $$ \ begin {align} P (B \ cap A) schreiben. & = P (B) \ alpha (A; B) \ tag {4} \\\ alpha (A; B) & = \ frac {P (B \ cap A)} {P (B)} \ tag {5} \ end {align} $$ und da $ A \ cap B = B \ cap A $, wir können $ (2) $ und $ (4) $ verwenden, um daraus zu schließen, dass $$ P (A) \ alpha (B; A) = P (B) \ alpha (A; B) \ tag {6} $$ welche sieht fast genauso aus wie das, wonach das OP fragt.

Also, was sind diese Größen $ \ alpha (B; A) $ und $ \ alpha (A; B) $ das sind "definiert" durch $ (3) $ und $ (5) $? Nun, eine Möglichkeit, darüber nachzudenken, besteht darin, zu berücksichtigen, dass, damit sowohl $ A $ als auch $ B $ aufgetreten sind, offensichtlich $ A $ aufgetreten sein muss (was die Wahrscheinlichkeit $ P (A) $ hat ) und vorausgesetzt , dass wir bereits angenommen haben, dass $ A $ aufgetreten ist, sollten wir $ \ alpha (B; A) $ als bedingte Wahrscheinlichkeit von $ B $ betrachten Geben Sie an, dass wir bereits angenommen haben, dass $ A $ aufgetreten ist. Daher nennen wir $ \ alpha (B; A) $ als

bedingte Wahrscheinlichkeit von $ B $, vorausgesetzt, $ A $ ist aufgetreten, bezeichnet mit $ P (B \ mid A) $ und definiert als $$ P (B \ mid A) = \ frac {P (A \ cap B)} {P (A)} ~ \ text {vorausgesetzt, dass} ~ P (A) > 0 . \ tag {7} $$

Beachten Sie, dass, wenn $ A $ und $ B $ unabhängig sind, $ P (B \ mid A) = P (B) $, d. h. Zu wissen, dass $ A $ aufgetreten ist, ändert nicht im geringsten Ihre Schätzung der Wahrscheinlichkeit von $ B $.

Alles in Ordnung und gut, aber was ist die Intuition dahinter Dies? Nun, viele Menschen verstehen Wahrscheinlichkeiten als langfristige relative Häufigkeiten und betrachten wir daher eine Folge von $ N $ -Versuchen des Experiments, $ N $ groß. Wenn das Ereignis $ A $ $ N_A $ mal bei diesen $ N $ -Versuchen aufgetreten ist und das Ereignis $ B $ bei $ N_B $ -Versuchen aufgetreten ist, dann ist $$ P (A) \ approx \ frac {N_A} {N}, \ quad P. (B) \ approx \ frac {N_B} {N}. $$ In ähnlicher Weise ist $$ P (A \ cap B) \ approx \ frac {N_ {A \ cap B}} {N} $$, wo wenote die Versuche bei denen $ A \ cap B $ aufgetreten ist, ist notwendigerweise eine Teilmenge der $ N_A $ -Versuche, bei denen $ A $ aufgetreten ist (sowie eine Teilmenge der $ N_B $ -Versuche, bei denen $ B $ aufgetreten ist). Aber $ P (B \ mid A) $ ist die (bedingte) Wahrscheinlichkeit von $ B $, wenn $ A $ aufgetreten ist. Betrachten wir also die $ N_A $ -Versuche, bei denen $ A $ aufgetreten ist. Wie hoch ist bei dieser Teilsequenz von $ N_A $ -Versuchen die relative Häufigkeit von $ B $? Nun, $ B $ trat bei genau $ N_ {A \ cap B} $ dieser $ N_A $ -Versuche auf, und so $$ P (B \ mid A) \ ungefähr \ frac {N_ {A \ cap B}} {N_A } = \ frac {\ frac {N_ {A \ cap B}} {N}} {\ frac {N_ {A}} {N}} \ ungefähr \ frac {P (A \ cap B)} {P (A. )} $$ Dies entspricht der Definition in $ (7) $.


OK, also lassen Sie jetzt das Down-Voting beginnen ....

Antoni Parellada
2015-02-15 00:07:24 UTC
view on stackexchange narkive permalink

Ich versuche nur eine grafische Intuition ... Ich hoffe, sie fliegt ... enter image description here

Hunaphu
2015-02-14 19:36:32 UTC
view on stackexchange narkive permalink
$ p (B \ Mitte A) p (A) = p (B \ Kappe A) = p (A \ Mitte B) p (B) $
Können Sie das etwas erweitern?Ich bin nicht sicher, ob dies das Problem für das OP ausreichend klären wird.
+1 Ich mag das, weil es auf den Punkt kommt und auf die Anfrage nach "einfachem Weg oder einfachem Beispiel" reagiert.
Nur um sicher zu gehen, ist das Komma in der Notation $ p (A, B) $ eine andere Art, $ \ cap $ zu schreiben?
@TMOTTM Ja, das Komma und die Kappe bedeuten beide (A und B).
Aaron Zeng
2015-02-14 22:06:52 UTC
view on stackexchange narkive permalink

Ein einfaches Beispiel ist wie folgt. Angenommen, wir haben A mit zwei Ereignissen, "A = 1" oder "A = 2", und B mit drei Ereignissen, "B = 1", "B = 2" oder "B = 3". Die (willkürlichen) Zellenzahlen für das Auftreten der Ereignisse sind in der folgenden Tabelle aufgeführt.

enter image description here

Nun können wir ein einfaches Beispiel machen: \ begin {align *} P (A = 1) & = \ frac {6} {21} \\ P (B = 2) & = \ frac {7} {21} \\ P (A = 1 \ mid B = 2) & = \ frac {2} {7} \\ P (B = 2 \ mid A = 1) & = \ frac {2} {6} \\\ end {align *}, was ergibt, dass \ begin {align *} P (A. = 1) \ mal P (B = 2 \ Mitte A = 1) & = \ frac {6} {21} \ mal \ frac {2} {6} = \ frac {2} {21} \\ P (B. = 2) \ mal P (A = 1 \ Mitte B = 2) & = \ frac {7} {21} \ mal \ frac {2} {7} = \ frac {2} {21} \ end {align * }

Es ist leicht zu überprüfen, ob die Gleichung für das andere Auftreten von Ereignis A und B gilt.

Die Gleichung ist allgemein gültig. Das ist natürlich keine Magie.

Wenn A und B unabhängig sind, ist $ P (B | A) = P (B) $, $ P (A | B) = P (A) $. Die beiden Seiten der Gleichung reduzieren sich auf $ P (A) P (B) $. Die Gleichung gilt.

Wenn A und B nicht unabhängig sind, kann dies leicht durch die Definition der bedingten Wahrscheinlichkeit (oder des Bayes-Theorems) bewiesen werden.

Nicolas Bourbaki
2015-02-15 00:23:43 UTC
view on stackexchange narkive permalink

Motivieren wir die Formel für die bedingte Wahrscheinlichkeit. Wir halten die Dinge so einfach wie möglich. $ S $, unser Probenraum, wird endlich sein. Sei $ E $ und $ F $ Teilmengen davon ( Ereignisse ).

Wenn wir $ P (E | F) $ schreiben, sagen wir "Wahrscheinlichkeit von $ E $ gegeben $ F $ ". Anstelle der Möglichkeiten in $ S $ sind sie jetzt alle in $ F $, da uns mitgeteilt wird, dass das Ereignis $ F $ aufgetreten ist. Der neue Probenraum ist $ F $. Um die Wahrscheinlichkeit von $ E $ bei $ F $ zu ermitteln, muss noch die Anzahl der Möglichkeiten in $ E $ gezählt werden. Es wäre falsch, $ | E | $ zu schreiben, da dies die Möglichkeiten außerhalb von $ F $ (dem neuen Probenraum) zählt. Daher gibt es $ | E \ cap F | $ Möglichkeiten von $ E $, die innerhalb von $ F $ auftreten.

Es folgt durch die endliche Wahrscheinlichkeitsformel (Ereignisgröße geteilt durch Stichprobengröße) $$ P (E | F) = \ frac {| E \ cap F |} {| F |} $$

Aber lassen Sie uns diese Formel umschreiben, um Wahrscheinlichkeiten auf der rechten Seite zu haben. Wir verwenden $$ P (E | F) = \ frac {| E \ cap F |} {| S |} \ cdot \ frac {| S |} {| F |} = \ left (\ frac {| E. \ cap F |} {| S |} \ right) \ bigg / \ left (\ frac {| F |} {| S |} \ right) = \ frac {P (E \ cap F)} {P (F. )} $$



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...