Ich habe daran gearbeitet, einige Teststatistiken basierend auf der KL-Divergenz zu erstellen.
\ begin {Gleichung} D_ {KL} (p \ | q) = \ sum_i p (i) \ log \ left (\ frac {p (i)} {q (i)} \ right), \ end {Gleichung}
Und am Ende hatte ich einen Wert von 1,9 $ für meine Distributionen. Beachten Sie, dass die Distributionen Unterstützung von $ 140 $ K-Levels haben, daher halte ich es nicht für sinnvoll, die gesamten Distributionen hier zu planen.
Ich frage mich, ob es möglich ist, eine KL-Divergenz von mehr als 1 zu haben. Viele der Interpretationen, die ich von KL-Divergenz gesehen habe, basieren auf einer Obergrenze von 1. Wenn sie größer als 1 sein kann, wie lautet die Interpretation von KL-Divergenz über 1 hinaus?
Bearbeiten: Ich weiß, dass es eine schlechte Referenz ist, aber der Wikipedia-Artikel über KL-Divergenz legt nahe, dass "eine Kullback-Leibler-Divergenz von 1 darauf hinweist, dass sich die beiden Verteilungen so unterschiedlich verhalten, dass die Erwartung bei der ersten Verteilung nähert sich Null. " Ich hatte gedacht, dass dies impliziert, dass die KL-Divergenz oben durch 1 begrenzt war, aber es ist offensichtlich, dass dies ein Fehler im Artikel ist.