Wenn es unmöglich ist, was ist der Beweis?
Wenn es unmöglich ist, was ist der Beweis?
Nehmen Sie zwei positive iid Cauchy-Variablen $ Y_1, Y_2 $ span> mit gemeinsamer Dichte $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ span> und unendliche Erwartung.
Die minimale Variation $ \ min (Y_1, Y_2) $ span> hat dann die Dichte $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ span> Seit (nach L'Hospital's Regel) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > im Unendlichen ist die Funktion $ x \ mapsto xg (x) $ span> integrierbar. Daher hat $ \ min (Y_1, Y_2) $ span> eine endliche Erwartung , die tatsächlich $ entspricht \ log (16) / \ pi $ span>.
Allgemeiner gesagt, in einer regulären Cauchy-Stichprobe $ X_1, \ ldots, X_n $ span>, mit $ n \ ge 3 $ span>, jede Auftragsstatistik außer den Extremen $ X _ {(1)} $ span> und $ X _ {(n )} $ span> genießt eine (endliche) Erwartung. (Außerdem haben $ X _ {(1)} $ span> und $ X _ {(n)} $ span> beide unendliche Erwartungen, $ - \ infty $ span> und $ + \ infty $ span> bzw. keine Erwartung. )
Lassen Sie uns eine allgemeine Lösung für unabhängige Variablen $ X $ span> und $ Y $
Lassen Sie $ Z = \ min (X, Y). $ span> Dann können wir aus den grundlegenden Axiomen und Definitionen das für jede Zahl $ z, $ span>
$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$ span>
Für jede CDF $ F $ span> ist die Erwartung
$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$ span>
die Summe eines negativen Teils und eines positiven Teils.
Folglich fragt the Frage, ob es für $ E_ {F_Z} $ span> und $ E_ {F_Y} $
Im schlimmsten Fall also die Integrale $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ span> und $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ span> wird divergieren, aber wir fragen uns, ob das Integral des Produkts
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$ span>
divergiert. Es kann eindeutig nicht schlechter sein als die beiden ursprünglichen Integrale, da $ 0 \ le F (z) \ le 1 $ span> für alle $ z, $ span>
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$
TDies ist ein ausreichender Einblick, um die Landschaft zu überblicken. Angenommen, als $ z \ bis \ infty, $ span> $ 1- F_X (z) $ span> wird durch $ z ^ {- p} $ span> für eine positive Potenz $ p angenähert , $ span> und ähnlich $ 1-F_Y (z) $ span> wird durch $ z ^ {- q} $ angenähert span> für $ q \ gt 0. $ span> Wir schreiben $ 1-F_X \ sim O (Z ^ p) $ span> und $ 1-F_Y \ sim O (Z ^ q). $ span> Dann, wenn beide $ p $ und $ q $ span> sind kleiner als $ 1, $ span> $ E_ {F_X} $ span> und $ E_ {F_Y} $ span> sind unendlich.
Wenn $ p + q \ le 1, $ span>, weil $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ span> $ E_ {F_Z} = \ infty. $ Span>
Aber wenn $ p + q \ gt 1, $ span> $ E_ {F_Z} $ span > ist endlich, weil $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ span> oben durch $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ span> plus ein Vielfaches von $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$ span>
Mit anderen Worten, die unendlichen Erwartungen der positiven Teile von $ X $ span> und $ Y $ span> implizieren, dass ihre Überlebensfunktionen $ 1-F_X $ span> und $ 1-F_Y $ span> sich ihrer unteren Grenze von $ 0 $ span> nur sehr langsam; Das Produkt dieser Überlebensfunktionen, dh die Überlebensfunktion von $ Z, $ span> , kann sich $ 0 $ span> ausreichend schnell, um $ Z $ span> eine endliche Erwartung zu geben.
Kurz gesagt,
Damit $ Z $ span> eine endliche Erwartung hat, $ (1-F_X) (1-F_Y) $ span> muss bei $ + \ infty ausreichend schnell zu $ 0 $ span> konvergieren. $ span> Dies kann auch dann passieren, wenn keines von beiden $ 1-F_X $ span> oder $ 1-F_Y $ span> konvergieren ausreichend schnell.
Nun, wenn Sie keine Unabhängigkeit auferlegen, ja.
Betrachten Sie $ Z \ sim Cauchy $ span> und $ B \ sim Bernouilli (\ frac {1} {2}) $ span>. Definieren Sie $ X $ span> und $ Y $ span> durch:
$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$ span>
$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$ span>
Wobei $ |. | $ span> den absoluten Wert bezeichnet. Die $ X $ span> und $ Y $ span> haben unendliche Erwartungen, aber $ \ min (X, Y) = 0 $ span> also $ E (\ min (X, Y)) = 0 $ span>.
Für unabhängige Zufallsvariablen weiß ich es nicht und würde mich für ein Ergebnis interessieren!
Diese Antwort ist nicht so allgemein wie Whubers Antwort und bezieht sich auf identisch verteiltes X und Y, aber ich glaube, dass es eine gute Ergänzung ist, weil es eine andere Intuition gibt. Der Vorteil dieses Ansatzes besteht darin, dass er leicht auf unterschiedliche Ordnungsstatistiken und auf unterschiedliche Momente oder andere Funktionen verallgemeinert werden kann. $ T (X) $ span>. Auch wenn die Quantilfunktion bekannt ist, ist die Möglichkeit oder Unmöglichkeit, eine Statistik unter Verwendung einer Ordnungsstatistik endlich zu machen, leicht an der Art der Singularität bei 0 und 1 zu erkennen.
Eine schnelle intuitive Ansicht der Möglichkeit, dass eine Ordnungsstatistik eine endliche endliche Erwartung hat, selbst wenn die zugrunde liegende Variable nicht über die Quantilfunktion erstellt werden kann.
Wir können die Momente einer Verteilung als die Momente der Quantilfunktion betrachten: https://stats.stackexchange.com/a/365385/164061
$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$ span>
Angenommen, wir möchten den ersten Moment berechnen, dann $ T (x) = x $ span>. Im Bild unten entspricht dies dem Bereich zwischen F und der vertikalen Linie bei $ x = 0 $ span> (wobei der Bereich auf der linken Seite ist kann als negativ gelten, wenn $ T (x) <0 $ span>).
Die Kurven im Bild zeigen, wie viel jedes Quantil zur Berechnung beiträgt. Wenn die Kurve $ T (Q (F)) $ span> schnell genug bis unendlich ist, wenn F gegen Null oder Eins geht, kann die Fläche unendlich sein.
Für eine Ordnungsstatistik ändert sich nun das Integral über den Quantilen $ dq $ span> etwas. Für die normale Variable hat jedes Quantil die gleiche Wahrscheinlichkeit. Für eine Auftragsverteilung ist dies Beta-verteilt. Das Integral wird also für eine Stichprobe der Größe $ n $ span> und unter Verwendung des Minimums:
$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$ span>
Dieser Begriff $ (1-q) ^ {n-1} $ span> kann möglicherweise eine Funktion erstellen, die ursprünglich ins Unendliche integriert wurde, weil sie einen Pol von hatte Ordnung 1 oder höher (das Verhalten in der Nähe von $ q = 1 $ span> war wie $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ span> mit $ a>1 $ span>) kann jetzt in einen endlichen Wert integriert werden.
Beispiel: Der Stichprobenmittelwert des Medians einer Stichprobe aus einer verteilten Cauchy-Variablen ist jetzt endlich, da die Pole 1. Ordnung entfernt werden. Das heißt, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0,5)) $ span> ist endlich für $ a \ geq 1 $ span> und $ b \ geq 1 $ span>. (Dies bezieht sich auf die allgemeinere Aussage von Xi'an zur Ordnungsstatistik in Bezug auf eine Cauchy-Variable)
Weiter: Wenn die Quantilfunktion eine wesentliche Singularität hat, zum Beispiel $ Q (p) = e ^ {1 / (1-p)} - e $ span> dann bleibt das Stichprobenminimum bei unendlichen oder undefinierten Momenten, unabhängig von der Größe der Stichprobe (ich habe gerade diese Quantilfunktion als Beispiel zusammengestellt, sie bezieht sich auf $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ span>, ich bin nicht sicher, ob es bekanntere Verteilungen gibt, die eine wesentliche Singularität in der Quantilfunktion haben).
Dies ist bei fast jeder Verteilung der Fall, da die Erwartung an eine Teilmenge normalerweise viel langsamer wächst als an die Teilmenge. Schauen wir uns die Erwartung einer Teilmenge für eine Variable $ z $ span> mit PDF $ f (z) $ span> an :: $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ span> Schauen wir uns die Wachstumsrate dieser Erwartung an: $$ \ frac d {dx} E_x [z] = xf (x) $$ span> Die Erwartung an eine Teilmenge wächst also viel langsamer als $ x $ span>, die Grenze einer Teilmenge. Die Implikation ist, dass obwohl für eine Verteilung ohne Momente wie den Modul von Cauchy $ | z | $ span> die Erwartung unendlich ist $ E_ \ infty [| z |] = \ infty $ span>, sein Wachstum mit der oberen Grenze der Teilmenge verlangsamt sich bei großen $ z $ span> erheblich. Tatsächlich ist für diesen Fall $ E_x [z] \ ca. 1 / x $ span>.
Warum ist das relevant? Hier ist der Grund. Sehen Sie sich die Erwartung von $ E [x | x<y] $ span> an, von der beide $ x, y $ span> stammen die gleiche Verteilung mit der Dichte $ f (.) $ span>, die einen unendlichen Mittelwert hat: Schauen wir uns die Erwartung des Minimums an: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times x \\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ span> Da $ E_y [x] $ span> viel langsamer wächst als $ y $ span>, ist dieses Integral höchstwahrscheinlich endlich . Es ist sicherlich endlich für den Modul von Cauchy $ | x | $ span> und ist gleich $ \ ln 4 / \ pi $ :
Sie können diese Analyse trivial auf die Minimalfunktion anwenden.