Frage:
Sei X, Y 2 r.v. Gibt es bei unendlichen Erwartungen Möglichkeiten, bei denen min (X, Y) endliche Erwartungen haben?
Preston Lui
2020-05-27 17:12:46 UTC
view on stackexchange narkive permalink

Wenn es unmöglich ist, was ist der Beweis?

Was haben Sie getan, um diese Frage zu beantworten?
Ist diese Frage mit einer Aufgabe verbunden?In diesem Fall sollte es mit dem Tag "Selbststudium" versehen sein.
Fünf antworten:
Xi'an
2020-05-27 19:56:08 UTC
view on stackexchange narkive permalink

Nehmen Sie zwei positive iid Cauchy-Variablen $ Y_1, Y_2 $ span> mit gemeinsamer Dichte $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ span> und unendliche Erwartung.

Die minimale Variation $ \ min (Y_1, Y_2) $ span> hat dann die Dichte $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ span> Seit (nach L'Hospital's Regel) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > im Unendlichen ist die Funktion $ x \ mapsto xg (x) $ span> integrierbar. Daher hat $ \ min (Y_1, Y_2) $ span> eine endliche Erwartung , die tatsächlich $ entspricht \ log (16) / \ pi $ span>.

Allgemeiner gesagt, in einer regulären Cauchy-Stichprobe $ X_1, \ ldots, X_n $ span>, mit $ n \ ge 3 $ span>, jede Auftragsstatistik außer den Extremen $ X _ {(1)} $ span> und $ X _ {(n )} $ span> genießt eine (endliche) Erwartung. (Außerdem haben $ X _ {(1)} $ span> und $ X _ {(n)} $ span> beide unendliche Erwartungen, $ - \ infty $ span> und $ + \ infty $ span> bzw. keine Erwartung. )

Vielen Dank.Aber meinst du, nur Xn genießt keine endliche Erwartung?
Sehr schönes Beispiel.Und $ E [\ min (Y_1, Y_2)] = log (16) / \ pi $
whuber
2020-05-27 22:37:52 UTC
view on stackexchange narkive permalink

Lassen Sie uns eine allgemeine Lösung für unabhängige Variablen $ X $ span> und $ Y $ mit CDFs $ F_X $ span> bzw. $ F_Y, $ span>. Dies gibt uns nützliche Hinweise darauf, was vor sich geht, ohne dass die Berechnung spezifischer Integrale abgelenkt wird.


Lassen Sie $ Z = \ min (X, Y). $ span> Dann können wir aus den grundlegenden Axiomen und Definitionen das für jede Zahl $ z, $ span>

$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$ span>

Für jede CDF $ F $ span> ist die Erwartung

$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$ span>

die Summe eines negativen Teils und eines positiven Teils.

Folglich fragt the Frage, ob es für $ E_ {F_Z} $ span> und $ E_ {F_Y} $ muss unendlich sein, aber $ E_ {F_Z} $ span> muss endlich sein. Dies erfordert sowohl den negativen als auch den positiven Teil von $ E_ {F_Z} $ span>, um endlich zu sein. Anstatt dies vollständig zu analysieren, reicht es aus, zu untersuchen, was mit den positiven Teilen passiert: Sie können das Analogon für die negativen Teile herausarbeiten.

Im schlimmsten Fall also die Integrale $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ span> und $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ span> wird divergieren, aber wir fragen uns, ob das Integral des Produkts

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$ span>

divergiert. Es kann eindeutig nicht schlechter sein als die beiden ursprünglichen Integrale, da $ 0 \ le F (z) \ le 1 $ span> für alle $ z, $ span>

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$

TDies ist ein ausreichender Einblick, um die Landschaft zu überblicken. Angenommen, als $ z \ bis \ infty, $ span> $ 1- F_X (z) $ span> wird durch $ z ^ {- p} $ span> für eine positive Potenz $ p angenähert , $ span> und ähnlich $ 1-F_Y (z) $ span> wird durch $ z ^ {- q} $ angenähert span> für $ q \ gt 0. $ span> Wir schreiben $ 1-F_X \ sim O (Z ^ p) $ span> und $ 1-F_Y \ sim O (Z ^ q). $ span> Dann, wenn beide $ p $ und $ q $ span> sind kleiner als $ 1, $ span> $ E_ {F_X} $ span> und $ E_ {F_Y} $ span> sind unendlich.

  • Wenn $ p + q \ le 1, $ span>, weil $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ span> $ E_ {F_Z} = \ infty. $ Span>

  • Aber wenn $ p + q \ gt 1, $ span> $ E_ {F_Z} $ span > ist endlich, weil $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ span> oben durch $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ span> plus ein Vielfaches von $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$ span>

Mit anderen Worten, die unendlichen Erwartungen der positiven Teile von $ X $ span> und $ Y $ span> implizieren, dass ihre Überlebensfunktionen $ 1-F_X $ span> und $ 1-F_Y $ span> sich ihrer unteren Grenze von $ 0 $ span> nur sehr langsam; Das Produkt dieser Überlebensfunktionen, dh die Überlebensfunktion von $ Z, $ span> , kann sich $ 0 $ span> ausreichend schnell, um $ Z $ span> eine endliche Erwartung zu geben.

Kurz gesagt,

Damit $ Z $ span> eine endliche Erwartung hat, $ (1-F_X) (1-F_Y) $ span> muss bei $ + \ infty ausreichend schnell zu $ 0 $ span> konvergieren. $ span> Dies kann auch dann passieren, wenn keines von beiden $ 1-F_X $ span> oder $ 1-F_Y $ span> konvergieren ausreichend schnell.

Zur Veranschaulichung können wir die Lomax-Verteilung mit betrachten Überleben $ S (x) = [1 + x / \ beta] ^ {- \ alpha} $ für $ x> 0 $ wobei $ \ beta > 0 $ und $ \ alpha> 0 $ sind die Skalierungs- und Formparameter.Das Die Erwartung ist endlich für $ \ alpha> 1 $.Wenn $ X $ und $ Y $ sind unabhängiger Lomax mit der gleichen Skala $ \ beta> 0 $ und Formen $ \ alpha_X $, $ \ alpha_Y $ wir sehen, dass $ \ min (X, \, Y) $ Lomax mit Skalierung ist $ \ beta $ und forme $ \ alpha_X + \ alpha_Y $.
Pohoua
2020-05-27 18:11:33 UTC
view on stackexchange narkive permalink

Nun, wenn Sie keine Unabhängigkeit auferlegen, ja.

Betrachten Sie $ Z \ sim Cauchy $ span> und $ B \ sim Bernouilli (\ frac {1} {2}) $ span>. Definieren Sie $ X $ span> und $ Y $ span> durch:

$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$ span>

$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$ span>

Wobei $ |. | $ span> den absoluten Wert bezeichnet. Die $ X $ span> und $ Y $ span> haben unendliche Erwartungen, aber $ \ min (X, Y) = 0 $ span> also $ E (\ min (X, Y)) = 0 $ span>.

Für unabhängige Zufallsvariablen weiß ich es nicht und würde mich für ein Ergebnis interessieren!

X und Y sind jedoch keine wirklich zweidimensionalen Fälle. Ich wette, Sie können zeigen, dass der Rang der Kovarianzmatrix 1 ist. Es ist wirklich nur B, das Sie vorschlagen.Ich würde dies nicht als Beispiel zählen.Grundsätzlich werden X und Y auf derselben exakten Ereignismenge definiert, daher ist es in gewissem Sinne dieselbe Variable.Ich möchte sagen, ich habe X = Z und Y = 1-Z.
Ja ... das ist ein kleines Betrugsbeispiel ^^.Ich denke, die Kovarianzmatrix ist in diesem Beispiel undefiniert, aber tatsächlich ist die Unterstützung von $ (X, Y) $ in $ \ mathbb {R} ^ 2 $ null. Nicht vollständig verknüpfte Zufallsvariablen zu haben, ist jedoch nicht schwierig. Zeichnen Sie mit demselben Setup $ X $ und $ Y $ aus der unabhängigen gleichmäßigen Verteilung, wenn $ B = 0 $ ist, und aus dem unabhängigen absoluten Wert Cauchy, wenn $ B = 1 $.
Können Sie in diesem Fall zeigen, dass min tatsächlich endlich ist?
Nun ja, da es immer kleiner als eins ist (da immer eines von $ X $ oder $ Y $ aus Uniform simuliert wird.
In meinem 2-vorherigen Kommentar habe ich einen Fehler gemacht, ich meinte als $ X \ sim \ mathcal {U} ([0, 1]) $, wenn $ B = 0 $ und $ Y \ sim \ mathcal {U} ([0, 1]) $ wenn $ B = 1 $ und dasselbe für den Cauchy-Teil der Verteilung, so dass für jeden Wert von $ B $ eine der beiden Variablen von einem $ \ mathcal {U} ([0, 1]).
Sextus Empiricus
2020-05-28 21:17:00 UTC
view on stackexchange narkive permalink

Diese Antwort ist nicht so allgemein wie Whubers Antwort und bezieht sich auf identisch verteiltes X und Y, aber ich glaube, dass es eine gute Ergänzung ist, weil es eine andere Intuition gibt. Der Vorteil dieses Ansatzes besteht darin, dass er leicht auf unterschiedliche Ordnungsstatistiken und auf unterschiedliche Momente oder andere Funktionen verallgemeinert werden kann. $ T (X) $ span>. Auch wenn die Quantilfunktion bekannt ist, ist die Möglichkeit oder Unmöglichkeit, eine Statistik unter Verwendung einer Ordnungsstatistik endlich zu machen, leicht an der Art der Singularität bei 0 und 1 zu erkennen.

Eine schnelle intuitive Ansicht der Möglichkeit, dass eine Ordnungsstatistik eine endliche endliche Erwartung hat, selbst wenn die zugrunde liegende Variable nicht über die Quantilfunktion erstellt werden kann.

Wir können die Momente einer Verteilung als die Momente der Quantilfunktion betrachten: https://stats.stackexchange.com/a/365385/164061

$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$ span>

Angenommen, wir möchten den ersten Moment berechnen, dann $ T (x) = x $ span>. Im Bild unten entspricht dies dem Bereich zwischen F und der vertikalen Linie bei $ x = 0 $ span> (wobei der Bereich auf der linken Seite ist kann als negativ gelten, wenn $ T (x) <0 $ span>).

Cauchy versus Normal

Die Kurven im Bild zeigen, wie viel jedes Quantil zur Berechnung beiträgt. Wenn die Kurve $ T (Q (F)) $ span> schnell genug bis unendlich ist, wenn F gegen Null oder Eins geht, kann die Fläche unendlich sein.


Für eine Ordnungsstatistik ändert sich nun das Integral über den Quantilen $ dq $ span> etwas. Für die normale Variable hat jedes Quantil die gleiche Wahrscheinlichkeit. Für eine Auftragsverteilung ist dies Beta-verteilt. Das Integral wird also für eine Stichprobe der Größe $ n $ span> und unter Verwendung des Minimums:

$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$ span>

Dieser Begriff $ (1-q) ^ {n-1} $ span> kann möglicherweise eine Funktion erstellen, die ursprünglich ins Unendliche integriert wurde, weil sie einen Pol von hatte Ordnung 1 oder höher (das Verhalten in der Nähe von $ q = 1 $ span> war wie $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ span> mit $ a>1 $ span>) kann jetzt in einen endlichen Wert integriert werden.


Beispiel: Der Stichprobenmittelwert des Medians einer Stichprobe aus einer verteilten Cauchy-Variablen ist jetzt endlich, da die Pole 1. Ordnung entfernt werden. Das heißt, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0,5)) $ span> ist endlich für $ a \ geq 1 $ span> und $ b \ geq 1 $ span>. (Dies bezieht sich auf die allgemeinere Aussage von Xi'an zur Ordnungsstatistik in Bezug auf eine Cauchy-Variable)

Weiter: Wenn die Quantilfunktion eine wesentliche Singularität hat, zum Beispiel $ Q (p) = e ^ {1 / (1-p)} - e $ span> dann bleibt das Stichprobenminimum bei unendlichen oder undefinierten Momenten, unabhängig von der Größe der Stichprobe (ich habe gerade diese Quantilfunktion als Beispiel zusammengestellt, sie bezieht sich auf $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ span>, ich bin nicht sicher, ob es bekanntere Verteilungen gibt, die eine wesentliche Singularität in der Quantilfunktion haben).

(+1) sehr schöner Punkt bei der Verwendung der Quantiltransformation.Ich würde vorschlagen, die letzte Integralgleichung als $$ \ mathbb E [T (X _ {(n)})] = n zu schreiben!\ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) \ text {d} q $$, um die Dinge klarer zu machen.
Aksakal
2020-05-27 21:35:23 UTC
view on stackexchange narkive permalink

Dies ist bei fast jeder Verteilung der Fall, da die Erwartung an eine Teilmenge normalerweise viel langsamer wächst als an die Teilmenge. Schauen wir uns die Erwartung einer Teilmenge für eine Variable $ z $ span> mit PDF $ f (z) $ span> an :: $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ span> Schauen wir uns die Wachstumsrate dieser Erwartung an: $$ \ frac d {dx} E_x [z] = xf (x) $$ span> Die Erwartung an eine Teilmenge wächst also viel langsamer als $ x $ span>, die Grenze einer Teilmenge. Die Implikation ist, dass obwohl für eine Verteilung ohne Momente wie den Modul von Cauchy $ | z | $ span> die Erwartung unendlich ist $ E_ \ infty [| z |] = \ infty $ span>, sein Wachstum mit der oberen Grenze der Teilmenge verlangsamt sich bei großen $ z $ span> erheblich. Tatsächlich ist für diesen Fall $ E_x [z] \ ca. 1 / x $ span>.

Warum ist das relevant? Hier ist der Grund. Sehen Sie sich die Erwartung von $ E [x | x<y] $ span> an, von der beide $ x, y $ span> stammen die gleiche Verteilung mit der Dichte $ f (.) $ span>, die einen unendlichen Mittelwert hat: Schauen wir uns die Erwartung des Minimums an: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times x \\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ span> Da $ E_y [x] $ span> viel langsamer wächst als $ y $ span>, ist dieses Integral höchstwahrscheinlich endlich . Es ist sicherlich endlich für den Modul von Cauchy $ | x | $ span> und ist gleich $ \ ln 4 / \ pi $ :

  • $ E_x [| z |] = \ int_0 ^ x \ frac 2 \ pi \ frac {z} {1 + z ^ 2} dz = \ int_0 ^ x \ frac1 \ pi \ frac {1} {1 + z ^ 2} dz ^ 2 = \ frac 1 \ pi \ ln (1 + z ^ 2) | _0 ^ x = \ frac {\ ln (1 + x ^ 2)} {\ pi} $ span> - hier sehen wir bereits, wie sich die Erwartung an die Teilmenge von $ x $ span> auf $ \ ln x $ span>.
  • $ E [x | x<y] = \ int_ {0} ^ \ infty \ frac 2 \ pi \ frac 1 {1 + x ^ 2} \ frac {\ ln (1 + x ^ 2)} {\ pi} dx = \ frac 1 \ pi \ ln 4 $ span>

Sie können diese Analyse trivial auf die Minimalfunktion anwenden.

Da $ \ mathbb E [\ min (| X_1 |, | X_2 |)] = \ log (4 ^ 2) / π $, war ich von der Diskrepanz verwirrt.Ich denke, das liegt daran, dass Sie das normalisierende $ \ mathbb P (x


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
Loading...