Frage:
Intuition hinter Vollständigkeit
Christopher Aden
2012-11-21 10:14:07 UTC
view on stackexchange narkive permalink

Die Definition für Vollständigkeit lautet: Wenn eine Statistik $ s (x) $ vollständig ist, haben wir für jedes messbare $ g $ $$ E_ \ theta (g (s (x))) = 0 \ ,, \ \ forall \, \ theta \ \ Rightarrow \ g (s) = 0 \ text {as} $$

Ich habe gehört, dass wir uns Vollständigkeit vorstellen können, wenn wir das schätzen wollen Nullfunktion unter Verwendung eines vollständigen $ s (x) $ unter der Klasse aller Null-unverzerrten Funktionen der Statistik ist die einzige eine, die fast sicher den Wert 0 annimmt. Dies scheint eine bizarre Vorstellung zu sein - warum sollten wir die Nullfunktion schätzen wollen?

Ich habe auch gehört, dass man beim Schätzen von Parametern eines Wahrscheinlichkeitsmodells $ P_ \ theta $ keine mehr benötigt als eine ausreichende Statistik. Ich habe gehört, dass mehr als die ausreichende Statistik keine zusätzlichen Informationen liefert. Wie hängt dies mit der Definition der Vollständigkeit oben zusammen (vielleicht Basus?)?

Gibt es eine bessere Intuition für die (scheinbar) bizarre Bedingung oben?

Siehe auch meine relevante Antwort [hier] (https://stats.stackexchange.com/questions/196601/what-is-the-intuition-behind-defining-completeness-in-a-statistic-as-being-impos)
Zwei antworten:
phaneron
2012-11-21 19:40:49 UTC
view on stackexchange narkive permalink

Der Vollständigkeit halber

Wenn $ E (f (x)) = u $ ist, dann ist $ f (x) $ eine unvoreingenommene Schätzung von $ u $.

Nun gilt auch $ g (x) = f (x) + h (x) $, wenn $ E (h (x)) = 0 $

$ f (x) $ ist die eindeutige unvoreingenommene Schätzung. (Den Rest und viele feine Details habe ich vergessen.)

Ausreichend

Der einfachste Weg, die Ausreichend- keit einzuschätzen, ist das relative Glaubensverhältnis, das nur die hintere Wahrscheinlichkeit geteilt durch den Prior ist Wahrscheinlichkeit (dies ist k * Wahrscheinlichkeit) berechnet über ABC oder zweistufige Simulation. Nach der Konditionierung auf eine ausreichende Statistik ändert die Konditionierung auf etwas weiter die posteriore Verteilung nicht. Wenn zwei verschiedene Statistiken ausreichen, ergibt die Konditionierung auf beide die gleiche posteriore Verteilung, und die minimal ausreichende Statistik ergibt die beste Annäherung an die gleiche posteriore Verteilung. Wenn dies jedoch für einen Kurs gilt, wird dies wahrscheinlich nur ablenken, da Sie wahrscheinlich anhand dieser Statistik antworten müssen, die die Wahrscheinlichkeitsfunktion indiziert.

Xi'an
2012-11-22 00:18:21 UTC
view on stackexchange narkive permalink

Nach dem Rao-Blackwell-Theorem ist

$$ \ mathbb {E} [\ delta (X) | S (X) = s] = \ delta ^ * (s) $$

ist ein "besserer" Schätzer in dem Sinne, dass es eine geringere Varianz hat, während es noch unvoreingenommen ist. In diesem eingeschränkten Sinne ist es sinnvoll, nur eine ausreichende Statistik zu verwenden. (Der Rest der Daten kann jedoch bei der Schätzung der Genauigkeit dieses Schätzers hilfreich sein und kann daher nicht verworfen werden.)

Wenn $ S $ zusätzlich vollständig ist, kann es nur einen unverzerrten Schätzer geben, der auf $ basiert S $, wie von Phaneron hervorgehoben. Nach dem Lehmann-Scheffé-Theorem ist dies der beste unverzerrte Schätzer.

Danke für die Antwort!Warum stellt die Vollständigkeit ["sicher, dass die Parameter der Wahrscheinlichkeitsverteilung, die das Modell darstellt, alle auf der Grundlage der Statistik geschätzt werden können: Sie stellt sicher, dass die Verteilungen, die verschiedenen Werten der Parameter entsprechen, unterschiedlich sind"] (http: // en.wikipedia.org/wiki/Completeness_(statistics))?Bitte sehen Sie auch meine Frage hier http://stats.stackexchange.com/q/53107/1005.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...