Frage:
Wenn zwei Zeitreihen $ X $ und $ Z $ auf $ 0 \ leq Z \ leq X $ folgen, können wir dann sagen, dass $ \ text {var} (Z) \ leq \ text {var} (X) $?
Douglas
2014-07-21 10:26:12 UTC
view on stackexchange narkive permalink

Jetzt sehe ich, dass es nicht halten kann. Vielen Dank für die Gegenbeispiele ... Ihr herrscht!

Vielen Dank für eure Kommentare!

Ich habe jedoch hinzugefügt , einige Beobachtungen, die fehlten. Am wichtigsten ist die Tatsache, dass wir davon ausgehen können, dass es eine positive Kovarianz zwischen X und Y gibt.

Zuerst schien es mir, dass es leicht zu demonstrieren wäre ... aber ich habe es immer noch nicht geschafft um dieses Problem zu lösen. Könnt ihr mir helfen?

Angenommen, wir verwenden

$ \ mathbf {i)} $ eine Zeitreihe $ X = [x_1, ..., x_N] $ enthält nur positive Einträge (dh $ 0 \ leq x_i $ für alle $ i $),

$ \ mathbf {ii)} $ einen Vektor von Gewichten gleicher Länge, gegeben durch $ Y = [y_1 , ..., y_N] $ wobei $ 0 \ leq y_i \ leq 1 $ für alle $ i $

, um

$ \ mathbf {iii)} $ eine Zeitreihe $ zu erstellen Z = [z_1, ..., z_N] $, wobei der $ i $ -te Term gegeben ist durch $ z_i = x_i y_i $, dh $ Z = [x_1 y_1, ..., x_N y_N] $. Als $ Y \ in [0,1] $ haben wir eindeutig $ 0 \ leq Z \ leq X $ für alle $ i $.

$ \ mathbf {Frage)} $ Können wir das demonstrieren? $ \ text {var} (Z) \ leq \ text {var} (X) $?

Zum Beispiel, wenn

$ X = [2, 6, 99, 12 , 3, 1] $ und $ Y = [0,34, 0,01, 0,2, 1, 0,3, 0,17] $ haben wir

$ Z = [x_1 y_1, ..., x_N y_N] = [ 0,68, 0,06, 19,8, 12, 0,9, 0,17] $

$ \ widehat {\ sigma} ^ {2} _ {X} = 1494,70 $

$ \ widehat {\ Sigma} ^ {2} _ {Z} = 69,81 $

$ \ mathbf {Wichtig} \ text {} \ mathbf {Beobachtungen} $:

1) $ X $ und $ Y $ sind stationäre, ergodische Zufallsprozesse

2) $ X $ ist keine konstante Zeitreihe in dem Sinne, dass $ \ text {var} (X) \ geq 0 $

3) Es kann angenommen werden, dass $ \ text {var} (X) \ geq \ text {var} (Y) \ geq 0 $

4) Es besteht eine positive Kovarianz $ X $ zwischen und $ Y $

  • Mögliche Implikation von 4)?

Als $ 0 \ leq Z \ leq X $ könnten wir eine gegebene Zeitreihe $ W \ geq 0 $ wie $ Z + W = X $ definieren. Somit ist $ \ text {var} (X) = \ text {var} (Z + W) = \ text {var} (Z) + \ text {var} (W) + 2 \ text {cov} (Z, W) $. Beachten Sie, dass wenn $ \ text {cov} (Z, W) \ geq 0 $, dann $ \ text {var} (X) \ geq \ text {var} (Z) $, weil $ \ text {var} (W) $ ist auch größer als Null.

Schliesst die Tatsache, dass $ \ text {cov} (X, Y) \ geq 0 $, auf $ \ text {cov} (Z, W) \ geq 0 $ schließen? Es gibt eine Bedingung, die $ \ text {cov} (Z, W) garantiert. > 0 $

Warum ich von $ \ text {var} (Z) \ leq \ text {var} (so überzeugt war) X) $?

In der Anwendung, an der ich interessiert bin, habe ich festgestellt, dass die Beziehung $ \ text {var} (Z) \ leq \ text {var} (X) $ jedes Mal besucht wird Ich führe meinen Algorithmus aus. Wenn ich nicht nachweisen kann, dass $ \ text {var} (Z) \ leq \ text {var} (X) $ angesichts der Beobachtungen 1) bis 4) gilt, würde ich gerne wissen, was diese Beziehung erzwingt, wie zum Beispiel , $ \ text {cov} (Z, W) \ geq 0 $ wie oben erwähnt.

Nochmals vielen Dank für die Antworten!

Prost

Hier ist ein Hinweis für die allgemeine Frage: Betrachten Sie $ a = 10 $ mit der Wahrscheinlichkeit eins, also eine konstante Variable, und $ b $ einheitlich für beispielsweise [0,1]. Beachten Sie jedoch, dass dies zwar Ihre allgemeine Frage beantwortet, Ihre Hauptfrage jedoch nicht beantwortet, da Z und X abhängig sind.
Die Notation ist bei Ihrer spezifischen Frage unklar. Wie ist X definiert? Es sieht für mich so aus, als ob X sowohl ein Vektor von Zahlen (N Realisierungen einer Zufallsvariablen?) Als auch eine Zufallsvariable ist (Sie fragen nach $ var (X) $).
Wie folgt Ihre erste "Beobachtung" (dass $ X $ nicht konstant ist) aus Ihren Annahmen? Ich sehe nicht, wie es geht. Nehmen Sie in der Tat an, dass $ X = 1 $ konstant ist, dann folgt Ihre Schlussfolgerung natürlich nicht. Oder wenn Sie die Annahme * hinzufügen *, dass $ X $ nicht konstant ist, können Sie sie ein wenig um 1 schwanken lassen, wie in [Alexis 'Antwort] (http://stats.stackexchange.com/a/108678/). 1352), und Ihre Schlussfolgerung folgt erneut nicht.
Ich sehe, dass es nicht klar genug war.
Vielen Dank für Ihre Beobachtung! Ich sehe, es kann klarer sein: i) X ist ein stochastischer Prozess, für den wir N Beobachtungen haben (siehe http://i.imgur.com/YhILAj3.png)ii). X kann angenommen werden stationär und ergodischiii) Es gibt eine positive Kovarianz zwischen X und Y (es kann wichtig sein, ich habe vergessen zu erwähnen) iv) "a" und "b" sind Zufallsvariablen. Ich werde diese zusätzlichen Beobachtungen oben in der Beschreibung der Problemdanken hinzufügen nochmal
Douglas - wo Sie "schließen" haben Ich denke, Sie meinen "implizieren". * Ableiten * bedeutet, '* etwas aus Beweisen und Argumenten abzuleiten oder daraus zu schließen *' (was einen Denker erfordert, also nichts, was durch die Beziehungen zwischen Variablen selbst getan wird, die nicht zu eigenen Schlussfolgerungen führen können), während * implizieren * bedeutet '* etwas vorschlagen, das nicht direkt angegeben ist * '. Die Beziehungen zwischen Variablen können (wohl) etwas implizieren, worauf Sie oder ich dann schließen könnten.
Entschuldigung, Glen_b. Englisch ist nicht meine Muttersprache. :-(Danke für die Information!
Jetzt sehe ich, dass es nicht halten kann. Vielen Dank für die Gegenbeispiele ... Ihr regiert!
Fünf antworten:
Alexis
2014-07-21 10:54:58 UTC
view on stackexchange narkive permalink

Ich glaube nicht, dass Var $ (Z) \ le $ Var $ (X) $. Stellen Sie sich vor, dass $ X $ eine Zeitreihe ist, die sich um Werte nahe 100 schlängelt, fast immer zwischen 98 und 102. Stellen Sie sich nun vor, dass $ Z $ sich zwischen 0 und 100 schlängelt, aber immer kleiner als $ X $ ist. Die Varianz von $ Z $ wird in einem solchen Fall eindeutig größer sein als die Varianz von $ X $. Dies ist ein Beispiel, in dem $ X $ und $ Z $ um einige Konstanten stationär sind, aber es könnte leicht auf ein stationäres Trendbeispiel erweitert werden ... Ich bin nicht sicher, ob es sich auf integrierte Zeitreihen erstrecken würde ... muss nachdenken darauf.

Hallo Alexis! Vielen Dank für Ihren Kommentar. Ich verstehe Ihren Standpunkt: Natürlich kann die Streuung von $ Z $ um $ \ mu_Z $ größer sein als die Streuung von $ X $ um $ \ mu_X $, unabhängig davon, ob $ Z \ leq X $. Es gibt jedoch einen wichtigen Punkt, den ich vergessen habe zu erwähnen: $ \ text {cov} (X, Y)> 0 $. Bedeutet die Tatsache, dass diese positive Kovarianz gelten sollte, dass das gewichtete Signal $ Z $ $ \ text {var} (Z) \ leq \ text {var} (X) $ haben sollte? Ich werde versuchen, dies in meiner ursprünglichen Frage oben klar zu machen. Danke noch einmal!
Die Antwort ist immer noch nein.
probabilityislogic
2014-07-21 12:38:04 UTC
view on stackexchange narkive permalink

Für den allgemeinen Fall lautet die Antwort nein. Für die spezifischen Fälle ist es auch nein.

Ein einfaches Zählerbeispiel ist $ y \ sim U (0,1) $ und $ x \ sim Gamma (a, a) $, so dass wir habe $ E (x) = 1 $ und $ var (x) = a ^ {- 1} $. Nehmen Sie $ x $ und $ y $ als unabhängig, und wir haben:

$$ var (z) = E [var (z | y)] + var [E (z | y)] = E. [y ^ 2a ^ {- 1}] + var [y] = var (y) + E (y ^ 2) a ^ {- 1} = \ frac {1} {12} + \ frac {1} {3 } var (x) = var (x) \ frac {a + 4} {12} $$

Nun wählen wir einfach einen beliebigen Wert für $ a $, so dass $ a> 8 $ und wir $ haben var (z) > var (x) $

Hallo! Vielen Dank für Ihren Kommentar! Leider (oder auch nicht) sind $ x $ und $ y $ nicht unabhängig. Ich habe diese zusätzlichen Informationen in meiner ursprünglichen Frage oben hinzugefügt. Für den allgemeinen Fall für $ a $ und $ b $ sehe ich jedoch, dass dies nicht gelten kann.
Glen_b
2014-07-21 15:45:54 UTC
view on stackexchange narkive permalink

Ganz klar nicht.

Ein einfaches Gegenbeispiel (hier in R), das meiner Meinung nach alle Ihre Einschränkungen erfüllt:

  set.seed (239843) x = rnorm (100, 100, 1) y = rep (c (0,01, 0,99), times = 50) z = x · y var (x) [1] 0,8413043var (y) [1] 0,2425253 var (z) [1] 2425,296  

Was ist los:

  1. x ist eine Reihe mit Mittelwert 100 und SD 1.

  2. y wechselt zwischen 0,01 und 0,99.

  3. z = xy wechselt daher zwischen (ungefähr) 1 und 99, ist aber immer $ <x $

  4. ol>

    Alternative [allgemeinere] Frage) Unter der Annahme endlicher Varianzen ist es wahr, dass wir für jede Zufallsvariable a und b, so dass 0 ≤ a ≤ b ist, var (a) ≤ var (b)?

    Noch deutlicher nicht; Ohne die Notwendigkeit einer "y" -ähnlichen Variablen ist es ziemlich offensichtlich:

    Betrachten Sie einen Satz von Werten, der zwischen 1 und 99 wechselt, und einen zweiten, der zwischen 100 und 101 wechselt.


    Hinzufügen der neuen Bedingung, dass X und Y eine positive Kovarianz haben:

      set.seed (239843) oldx = rnorm (100,100,1) y = rep (c (0,01, 0,99), times = 50) x = oldx + y # oldX und Y sind unabhängig, so dass X und Y jetzt + ve Kovarianz haben z = x * y cov (x, y) [1] 0,2739745 # Probenkovarianz ist zufällig positiv in diesem Fall auch var (x); var (y); var (z) [1] 1.065326 [1] 0.2425253 [1] 2481.243  

    Wenn Sie die Antworten für diesen Fall ausarbeiten Algebraisch (Berechnen Sie die Populationsvarianzen und die relevante Populationskovarianz) werden Sie sehen, dass dies nicht nur ein numerischer Unfall aus einer glücklichen Auswahl von Samen ist.

Hallo Glen_b! Ich sehe jetzt, dass es für den allgemeineren Fall nicht gelten kann. Bei meiner ursprünglichen Frage habe ich jedoch vergessen zu erwähnen, dass X und Y nicht unabhängig voneinander sind. Tatsächlich sollten wir cov (X, Y)> 0 haben. Ich werde oben ein detailliertes Beispiel schreiben. Vielen Dank für Ihren Kommentar!
X und Y mit positiver Kovarianz zu haben, wird nicht helfen. Siehe das neue Beispiel in meiner Antwort (eine * winzige * Modifikation des alten). Wenn Sie die Umstände erneut ändern möchten, schlage ich eine neue Frage vor.
+1. Sie müssen nicht einmal "oldx" generieren. Versuchen Sie Folgendes: `z <- (x <-1+ (y <-runif (100))) * y; var (z) / var (x); cor (x, y) `.
@whuber Danke - ich habe zwar gesehen, dass es einfachere Beispiele für diesen neuen Fall geben würde, aber ich wollte dem OP zeigen, dass es bereits aus meinem vorherigen Beispiel klar war, dass es nicht helfen würde, die Kovarianz positiv zu machen. Ich entschied, dass das Zeigen einer winzigen Modifikation dieses Falls dazu dienen könnte, dies hervorzuheben. Ich finde es schön, dass so viele Gegenbeispiele vorgestellt werden; Die unterschiedlichen Ansätze zur Identifizierung von Gegenbeispielen in den Antworten machen dies lehrreicher, als die Frage anzeigen würde.
Jetzt sehe ich, dass es nicht halten kann. Vielen Dank für die Gegenbeispiele ... Ihr regiert!
whuber
2014-07-22 00:55:58 UTC
view on stackexchange narkive permalink

Lassen Sie uns klarstellen, dass die diskutierte "Varianz" eine Zufallsvariable zu sein scheint, die aus einem endlichen Teil einer Zeitreihe abgeleitet ist. Insbesondere ist der rohe $ k ^ \ text {th} $ Moment von $ \ mathrm {X} = (X_1, X_2, \ ldots, X_N) $

$$ \ mu_k (\ mathrm {X. }) = (X_1 ^ k + X_2 ^ k + \ cdots + X_N ^ k) / N, $$

ist eine Zufallsvariable und die Varianz ist

$$ \ text {var} (\ mathrm {X}) = \ mu_2 (\ mathrm {X}) - \ mu_1 ^ 2 (\ mathrm {X}), $$

Dies ist auch eine Zufallsvariable.

In ähnlicher Weise können wir Momente $ \ mu_ {jk} $ der bivariaten Reihe $ (X_i, Y_i) $ definieren und daraus eine Kovarianz berechnen. Alle diese Definitionen sind auch dann sinnvoll, wenn eine der Reihen konstant ist (obwohl sich dann die Momente und die Varianz eher auf Zahlen als auf Zufallsvariablen reduzieren können).

Um zu zeigen, dass Gegenbeispiele auch dann existieren, wenn $ X $ und $ Y $ haben eine positive Kovarianz, lassen Sie $ Y_i $ durch $ 0 $ und $ 1 $ begrenzt sein, lassen Sie $ \ mathrm {Y} $ eine Varianz ungleich Null haben, wählen Sie $ 0 \ lt \ varepsilon \ lt 1 $ und definieren Sie

$$ X_i = 1 + \ varepsilon Y_i \ ge 0. $$

Konstruktionsbedingt besteht eine perfekte (Einheits-) Korrelation zwischen jedem $ X_i $ und $ Y_i $ sowie zwischen $ \ mu_k (\ mathrm {X}) $ und $ \ mu_k (\ mathrm {Y}) $ für jedes $ k \ gt 0 $; sicherlich sind die Kovarianzen positiv.

Da jedoch $ Z_i = X_iY_i = Y_i + \ varepsilon Y_i ^ 2 $,

$$ \ text {Var} (\ mathrm {Z} ) = \ text {Var} (\ mathrm {Y}) + 2 \ varepsilon \ mu_1 (\ mathrm {Y} ^ 3) + \ varepsilon ^ 2 \ mu_1 (\ mathrm {Y} ^ 4) \ gt \ text { Var} (\ mathrm {Y}) \ gt \ varepsilon ^ 2 \ text {Var} (\ mathrm {Y}) = \ text {Var} (\ mathrm {X}), $$

die Vermutung in der Frage widerlegen.

Dieselbe Analyse (verbunden mit der Tatsache, dass $ \ mu_1 (\ mathrm {Y} ^ 4) \ lt \ mu_1 (\ mathrm {Y} ^ 2) $) zeigt, dass für ausreichend große $ \ varepsilon \ gt 1 $ die Ungleichung umgekehrt werden muss. Somit gibt es keine notwendige Ungleichung in Bezug auf $ \ text {Var} (\ mathrm {X}) $ und $ \ text {Var} (\ mathrm {Z}) $.

Alecos Papadopoulos
2014-07-21 15:59:10 UTC
view on stackexchange narkive permalink

Angenommen, die Prozesse $ \ {X \} $ und $ \ {Y \} $ sind ergodisch / stationär mit endlichen Momenten und unabhängig. Dann ist $ \ {XY \} $ auch ergodisch und

$$ \ operatorname {Var (XY)} = E (X ^ 2Y ^ 2) - [E (XY)] ^ 2 = E ( X ^ 2) E (Y ^ 2) - [E (X)] ^ 2 [E (Y)] ^ 2 $$

das Aufbrechen der erwarteten Werte aufgrund der Unabhängigkeit.

Sie fragen

$$ E (X ^ 2) E (Y ^ 2) - [E (X)] ^ 2 [E (Y)] ^ 2 \ leq E (X ^ 2) - [E (X)] ^ 2 \; \; ?? $$

$$ \ Rightarrow [E (X)] ^ 2 \ cdot [1- [E ( Y)] ^ 2] \ leq E (X ^ 2) \ cdot [1-E (Y ^ 2)] \; \; ?? \ qquad [1] $$

Seit $ 0 \ leq Y \ leq 1 $ haben wir

$$ 0 \ leq E (Y) \ leq 1 \ Rightarrow 0 \ leq [E. (Y)] ^ 2 \ leq1, \; \; 0 \ leq E (Y ^ 2) \ leq1 $$

und auch

$$ E (Y ^ 2) > [E (Y)] ^ 2 \ Rightarrow [1 - [E (Y)] ^ 2] > [1-E (Y ^ 2)] \ qquad [2] $$

Untersuchen der gewünschten Ungleichung $ [1] $ und der wahren Ungleichung $ [ 2] $ man sieht, dass $ [1] $ halten kann oder nicht, da $ [E (X)] ^ 2 < E (X ^ 2) $.

Ich würde sagen, dass dies eine Anweisung ist Beispiel dafür, wie sich die Dinge ändern, wenn wir von einer deterministischen zu einer stochastischen Annahme übergehen - denn wenn die $ y_i $ als deterministische Sequenz bezeichnet werden, ist die Varianz von $ X_iy_i $ natürlich nicht größer als die Varianz von $ X_i $ .

Entweder ändern Sie, was Sie unter "Varianz" verstehen, oder Sie scheinen irgendwo die Grundidee übersehen zu haben, die in den Gegenbeispielen in anderen Antworten enthalten ist. Lassen Sie im letzten Absatz $ X_i $ einen Mittelwert von $ 1 $ und eine winzige Varianz haben. Wenn Sie $ y_i $ zwischen $ 0 $ und $ 1 $ wechseln lassen, wird die Varianz von $ X_iy_i $ größer als die von $ X_i $ allein.
@whuber. Wenn die $ y_i $ 's deterministisch sind, gilt dann nicht $ \ operatorname {Var} (y_iX_i) = y_i ^ 2 \ operatorname {Var} (X_i) $? In diesem Fall, wenn $ y_i = 0 $, dann ist $ \ operatorname {Var} (0 \ cdot X_i) = 0 <\ operatorname {Var} (X_i) $, während wenn $ y_i = 1 $, dann $ \ operatorname {Var} (y_iX_i) = \ operatorname {Var} (X_i) $? (Ich habe auch "kleiner" in "nicht größer als" geändert)
Was ich nur schwer verstehen kann, sind die beabsichtigten Bedeutungen von "Varianz" in Ihren Bemerkungen. Ihr Kommentar bezieht sich auf die Varianz einer einzelnen Zufallsvariablen $ X_i $ (mit festem $ i $), während ich die Frage verstanden hatte, sich auf die Varianzen der aus der Zeit extrahierten Sequenzen $ (X_1, X_2, \ ldots, X_N) $ zu beziehen Serie. (Siehe die Beispielberechnungen am Ende der Frage.)
@whuber hmmm ... mit der Deterministik von $ y_i $ ist der Prozess $ y_iX_i $ nicht mehr ergodisch (oder stationär). "Zeitmittelwerte" von Momenten fallen also nicht mit "Ensemble-Momenten" zusammen. Es scheint also, dass meine Antwort auf ihre eigenen Annahmen zugeschnitten (und eingeschränkt) ist.
Richtig: Der einzige Weg, wie ein deterministisches $ (y_i) $ stationär sein könnte, wäre, dass alle $ y_i $ konstant sind, was keine interessante Situation darstellt.
Hallo Alecos, vielen Dank für deine Antwort! Ich kann nicht davon ausgehen, dass X und Y unabhängig sind. Tatsächlich ist cov (X, Y)> 0.
Das sind neue Informationen.
Das ist wahr, Alecos, aber ich denke nicht, dass es sich lohnt, sich darum zu kümmern, weil es keine richtige Antwort ungültig macht. Jedes Gegenbeispiel mit unkorrelierten Reihen kann in ein Gegenbeispiel mit leicht korrelierten Reihen umgewandelt werden. (Es stellt sich heraus, dass die Vermutung falsch ist, selbst wenn $ X $ und $ Y $ perfekt korreliert werden dürfen.)


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...