Aus Wikipedia:
Die Statistik $ s $ gilt für die Verteilung von $ X $ als vollständig, wenn für jede messbare Funktion $ g $ (welche) muss unabhängig vom Parameter $ θ $ sein) gilt die folgende Implikation: $$ \ mathbb {E} _ \ theta [g (s (X))] = 0, \ forallθ \ text {impliziert, dass} P_θ (g (s () X)) = 0) = 1, \ forall θ. $$ Die Statistik $ s $ gilt als begrenzt vollständig, wenn die Implikation für alle begrenzten Funktionen $ g $ gilt.
I. Lesen Sie Xi'an und Phaneron und stimmen Sie zu, dass eine vollständige Statistik bedeutet, dass "es nur einen unvoreingenommenen Schätzer geben kann, der darauf basiert".
-
Aber ich Ich verstehe nicht, was Wikipedia am Anfang desselben Artikels sagt:
Im Wesentlichen ist es (Vollständigkeit ist eine Eigenschaft einer Statistik) eine Bedingung, die sicherstellt, dass die Parameter der Wahrscheinlichkeitsverteilung Die Darstellung des Modells kann alle auf der Grundlage der Statistik geschätzt werden: Sie stellt sicher, dass die Verteilungen t entsprechen o Unterschiedliche Werte der Parameter sind unterschiedlich.
-
In welchem Sinne (und warum) stellt die Vollständigkeit sicher, dass die Verteilungen, die unterschiedlichen Werten der Parameter entsprechen, unterschiedlich sind. ? Ist "die Verteilungen" die Verteilung einer vollständigen Statistik?
-
In welchem Sinne (und warum) stellt die Vollständigkeit sicher, dass die Parameter der Wahrscheinlichkeitsverteilung, die das Modell darstellt, alle sein können geschätzt auf der Grundlage der Statistik "?
-
-
[Optional: Was bedeutet" begrenzte Vollständigkeit "im Vergleich zur Vollständigkeit?]
ol>