Die Definition für Vollständigkeit lautet: Wenn eine Statistik $ s (x) $ vollständig ist, haben wir für jedes messbare $ g $ $$ E_ \ theta (g (s (x))) = 0 \ ,, \ \ forall \, \ theta \ \ Rightarrow \ g (s) = 0 \ text {as} $$
Ich habe gehört, dass wir uns Vollständigkeit vorstellen können, wenn wir das schätzen wollen Nullfunktion unter Verwendung eines vollständigen $ s (x) $ unter der Klasse aller Null-unverzerrten Funktionen der Statistik ist die einzige eine, die fast sicher den Wert 0 annimmt. Dies scheint eine bizarre Vorstellung zu sein - warum sollten wir die Nullfunktion schätzen wollen?
Ich habe auch gehört, dass man beim Schätzen von Parametern eines Wahrscheinlichkeitsmodells $ P_ \ theta $ keine mehr benötigt als eine ausreichende Statistik. Ich habe gehört, dass mehr als die ausreichende Statistik keine zusätzlichen Informationen liefert. Wie hängt dies mit der Definition der Vollständigkeit oben zusammen (vielleicht Basus?)?
Gibt es eine bessere Intuition für die (scheinbar) bizarre Bedingung oben?