Frage:
Bedeutung der Vollständigkeit einer Statistik?
Tim
2013-03-24 04:25:13 UTC
view on stackexchange narkive permalink

Aus Wikipedia:

Die Statistik $ s $ gilt für die Verteilung von $ X $ als vollständig, wenn für jede messbare Funktion $ g $ (welche) muss unabhängig vom Parameter $ θ $ sein) gilt die folgende Implikation: $$ \ mathbb {E} _ \ theta [g (s (X))] = 0, \ forallθ \ text {impliziert, dass} P_θ (g (s () X)) = 0) = 1, \ forall θ. $$ Die Statistik $ s $ gilt als begrenzt vollständig, wenn die Implikation für alle begrenzten Funktionen $ g $ gilt.

I. Lesen Sie Xi'an und Phaneron und stimmen Sie zu, dass eine vollständige Statistik bedeutet, dass "es nur einen unvoreingenommenen Schätzer geben kann, der darauf basiert".

  1. Aber ich Ich verstehe nicht, was Wikipedia am Anfang desselben Artikels sagt:

    Im Wesentlichen ist es (Vollständigkeit ist eine Eigenschaft einer Statistik) eine Bedingung, die sicherstellt, dass die Parameter der Wahrscheinlichkeitsverteilung Die Darstellung des Modells kann alle auf der Grundlage der Statistik geschätzt werden: Sie stellt sicher, dass die Verteilungen t entsprechen o Unterschiedliche Werte der Parameter sind unterschiedlich.

    • In welchem ​​Sinne (und warum) stellt die Vollständigkeit sicher, dass die Verteilungen, die unterschiedlichen Werten der Parameter entsprechen, unterschiedlich sind. ? Ist "die Verteilungen" die Verteilung einer vollständigen Statistik?

    • In welchem ​​Sinne (und warum) stellt die Vollständigkeit sicher, dass die Parameter der Wahrscheinlichkeitsverteilung, die das Modell darstellt, alle sein können geschätzt auf der Grundlage der Statistik "?

  2. [Optional: Was bedeutet" begrenzte Vollständigkeit "im Vergleich zur Vollständigkeit?]

  3. ol>
Überprüfen Sie diese andere Frage: http://stats.stackexchange.com/questions/41881/what-is-complete-sufficient-statistics
@Zen:Thanks! Warum brauchen wir dann die "begrenzte Vollständigkeit"?
Beides sind technische (Regelmäßigkeits-) Bedingungen, die im Zusammenhang mit den Beweisen der Theoreme, an denen sie beteiligt sind, sinnvoller sind. Daher wäre mein Rat, die Beweise des Lehmann-Scheffé-Theorems, des Bahadur-Theorems und des Basu-Theorems zu studieren.
Ich bin ziemlich skeptisch, dass Vollständigkeit an sich die Identifizierbarkeit von Parametern impliziert: Beginnen Sie mit einer vollständigen Statistik für eine durch $ \ theta $ indizierte Verteilungsfamilie und fügen Sie einen zusätzlichen und nutzlosen Parameter $ \ eta $ hinzu.Dann bleibt die Statistik vollständig.
Siehe auch meine relevante Antwort [hier] (https://stats.stackexchange.com/questions/196601/what-is-the-intuition-behind-defining-completeness-in-a-statistic-as-being-impos)
Drei antworten:
Lhunt
2015-01-02 01:41:42 UTC
view on stackexchange narkive permalink

Dies ist eine sehr gute Frage, mit der ich seit einiger Zeit zu kämpfen habe. So habe ich beschlossen, darüber nachzudenken:

Nehmen Sie das Gegenteil der Definition, wie in Wikipedia angegeben (was die logische Bedeutung überhaupt nicht ändert):

\ begin {align} {\ rm If} \ quad & \ neg \ \ forall \ theta \ P (g (T (x)) = 0) = 1 \\ {\ rm dann} \ quad & \ neg \ \ forall \ theta \ E (g (T (x))) = 0 \ end {align}

Mit anderen Worten, wenn es einen Parameterwert gibt, bei dem $ g (T (x)) $ nicht annähernd sicher ist $ 0 $, dann gibt es einen Parameterwert, so dass der erwartete Wert dieser Statistik nicht $ 0 $ ist.

Hmm. Was bedeutet das überhaupt?

Fragen wir, was passiert, wenn $ T (x) $ NICHT vollständig ist ...

Eine Statistik $ T (x) $, die NICHT vollständig ist, wird mindestens einen Parameterwert haben, so dass $ g (T (x)) $ für diesen Wert nicht mit ziemlicher Sicherheit $ 0 $ ist, und dennoch ist der erwartete Wert $ 0 $ für alle Parameterwerte (einschließlich dieses).

Mit anderen Worten, es gibt Werte von $ \ theta $, für die $ g (T (x)) $ eine nicht triviale Verteilung aufweist (es gibt einige zufällige Variationen), und dennoch den erwarteten Wert von $ g (T (x)) $ ist dennoch immer $ 0 $ - es rührt sich nicht, egal wie sehr $ \ theta $ unterschiedlich ist.

Eine vollständige Statistik, auf der anderen Seite wird sich der erwartete Wert irgendwann ändern, wenn $ g (T (x)) $ nicht trivial verteilt und für einige $ \ theta $ auf $ 0 $ zentriert ist.

Anders ausgedrückt: Wenn wir eine Funktion $ g (\ cdot) $ finden, bei der der erwartete Wert für einen $ \ theta $ -Wert (z. B. $ \ theta_0 $) Null ist und die bei diesem Wert von $ \ theta $ eine nicht triviale Verteilung aufweist, dann es muss einen anderen va geben Der Wert von $ \ theta $ da draußen (z. B. $ \ theta_1 \ ne \ theta_0 $) führt zu einer anderen Erwartung für $ g (T (x)) $.

Dies bedeutet, dass wir diese Statistik tatsächlich zum Testen von Hypothesen und zur informativen Schätzung im Kontext einer angenommenen Verteilung für unsere Daten verwenden können. Wir möchten in der Lage sein, es um einen hypothetischen Wert von $ \ theta $ zu zentrieren und die Erwartung 0 für diesen hypothetischen Wert von $ \ theta $ zu erhalten, aber nicht für alle anderen Werte von $ \ theta $. Wenn die Statistik jedoch nicht vollständig ist, können wir dies möglicherweise nicht tun: Wir können möglicherweise keine hypothetischen Werte von $ \ theta $ ablehnen. Aber dann können wir keine Konfidenzintervalle erstellen und statistische Schätzungen durchführen.

Willkommen auf der Website und vielen Dank, dass Sie dazu beigetragen haben.Ich habe mir erlaubt, Ihre Antwort mit dem Markup $ \ LaTeX $ zu formatieren, das unsere Website bietet.Wenn es Ihnen nicht gefällt, rollen Sie es mit meiner Entschuldigung zurück.(Wenn es Ihnen gefällt, finden Sie weitere Informationen zur Formatierung [hier] (http://stats.stackexchange.com/help/formatting).) Da Sie hier neu sind, können Sie sich [registrieren] (http: //stats.stackexchange.com/help/account) Ihr Konto und nehmen Sie an unserer [Tour] (http://stats.stackexchange.com/tour) teil, die Informationen für neue Benutzer enthält.
Bjørn Kjos-Hanssen
2015-01-02 03:03:06 UTC
view on stackexchange narkive permalink

Geometrisch bedeutet Vollständigkeit ungefähr so: Wenn ein Vektor $ g (T) $ orthogonal zum p.d.f. $ f_ \ theta $ von $ T $ für jedes $ \ theta $, $$ \ mathbb E_ \ theta g (T) = \ langle g (T), f_ \ theta \ rangle = 0 $$ dann $ g (T) = 0 $ dh die Funktionen $ f_ \ theta $ zum Variieren von $ \ theta $ erstrecken sich über den gesamten Funktionsraum von $ T $. In gewisser Weise wäre es natürlicher zu sagen, dass

$ \ theta $ für $ T $

vollständig ist als das, was wir sagen,

$ T $ ist für $ \ theta $ vollständig.

Auf diese Weise ist es nicht so seltsam, dass eine konstante Funktion "vollständig" wäre!


Vielleicht hilft ein Beispiel.

Angenommen, $ X $ und $ Y $ sind unabhängige und identisch verteilte Bernoulli-Zufallsvariablen ($ \ theta $), die Werte in $ \ {0, annehmen. 1 \} $ und $ Z = XY $. Dann ist $ Z $ für $ \ theta $ unvollständig, weil $ g = \ text {identity} $, $$ \ mathbb E_ \ theta (Z) = 0 $$ für alle $ 0< \ theta<1 $, aber dennoch $ \ mathbb P_ \ theta (Z = 0) \ ne 1 $.

Auf diese Weise wird gezeigt, was "Vollständigkeit" in Hilbert-Raumeinstellungen bedeutet ...
Semoi
2017-06-15 16:52:37 UTC
view on stackexchange narkive permalink

Ich fand dies sehr hilfreich:

Definition: b> Eine Statistik i> $ T $ heißt vollständig i>, wenn $ E_ \ theta [g (T)] = 0 $ für alle ist $ \ theta $ und einige Funktionen $ g $ implizieren, dass $ P_ \ theta (g (T) = 0) = 1 $ für alle $ \ theta $.

Betrachten Sie dies als analog zu Vektoren und ob die Vektoren {$ v_1, \ ldots, v_n $} eine vollständige Menge (= Basis) des Vektorraums bilden oder nicht.

  • Wenn sie sich über den gesamten Raum erstrecken, kann jedes $ v $ als lineare Kombination dieser Vektoren geschrieben werden: $ v = \ sum_j a_j \ cdot v_j $.
  • Wenn ein Vektor $ w $ orthogonal zu allen $ v_j $ ist, ist $ w = 0 $.
  • Um den Zusammenhang mit der Vollständigkeitsdefinition herzustellen, betrachten wir den Fall einer diskreten Wahrscheinlichkeitsverteilung. Wir beginnen mit dem Ausschreiben der Vollständigkeitsbedingung $$ 0 = E_ \ theta [g (t)] = \ sum_t g (t) \ cdot P_ \ theta (T = t) = \ sum_j g (t_j) \ cdot P_ \ theta (T = t_j) = \ begin {bmatrix} g (t_1) \\ g (t_2) \\ \ ldots \\ g (t_n) \\ \ end {bmatrix} \ cdot \ begin {bmatrix} p_ \ theta (t_1) \\ p_ \ theta (t_2) \\ \ ldots \\ p_ \ theta (t_n) \\ \ end {bmatrix} $$ für alle $ \ theta $. Hier haben wir die Summe als Skalarprodukt zweier Vektoren ausgedrückt $$ (g (t_1), g (t_2), ...) $$ und $$ (p_ \ theta (t_1), p_ \ theta (t_2), ...) $$, mit $ p_ \ theta (t_j) = P_ \ theta (T = t_j) \ ne 0 $ - wir betrachten nur positive Wahrscheinlichkeiten, denn wenn $ p (t_j) = 0 $ ist, sagt dies nichts über die Funktion $ g (t_j) $ aus. Nun sehen wir die Analogie zur oben diskutierten Orthogonalitätsbedingung.

    Im Prinzip könnte es sein, dass die $ g (t_j) $ nicht Null sind, aber dass sie sich zu Null summieren. Wie von Lhunt angegeben, ist dies jedoch nur möglich, wenn

    • Der Wahrscheinlichkeitsvektor $ (p_ \ theta (t_1), p_ \ theta (t_2), ...) $ ändert sich entweder überhaupt nicht, wenn $ \ theta $ variiert wird,
    • oder wenn es sich auf "einfache Weise" ändert, z. es springt von einem Wert für alle $ j $ zu einem anderen Wert für alle $ j $,
    • oder wenn es sich auf "korrelierte Weise" ändert, wäre dies ein Albtraum.

    Somit ist die Kreuzaufhebung von Begriffen nur möglich, wenn die Wahrscheinlichkeitsverteilung entweder einen "langweiligen Satz von Basisvektoren" oder einen Albtraum liefert.

    Im Gegensatz dazu impliziert die Gleichung für den Erwartungswert $ g (t_j) = 0 $ fast überall i>, wenn die Wahrscheinlichkeitsverteilung einen "ausreichend reichen Satz von Basisvektoren" liefert.Mit fast überall i> meinen wir, dass es eine Menge von Wahrscheinlichkeiten Null geben könnte, wobei $ g (t_j) \ ne 0 $ - z.Im Falle einer kontinuierlichen Wahrscheinlichkeitsverteilung könnte dies eine Menge einzelner Punkte sein.

    Wir sehen auch, dass die Terminologie etwas irreführend ist.Es wäre genauer, die Verteilungsfamilie $ p_ \ theta (\ cdot) $ als vollständig zu bezeichnen (anstelle der Statistik $ T $) - wie in der ursprünglichen Frage angegeben.In jedem Fall bedeutet Vollständigkeit, dass die Sammlung von Verteilungen für alle möglichen Werte von $ \ theta $ einen ausreichend reichen Satz von Vektoren liefert.



    Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
    Loading...