Frage:
Gibt es eine Alternative zu HMM?
JebSam
2013-09-13 16:28:26 UTC
view on stackexchange narkive permalink

Ich verwende seit einiger Zeit Hidden Markov Models (HMM). Jetzt würde ich gerne ein anderes statistisches Modell kennenlernen, das sich als ebenso nützlich wie HMM erweisen kann. Zum Beispiel habe ich HMM für die Gestenerkennung genutzt. Können andere statistische Konzepte wie HMM funktionieren, d. H. Statistische Inferenz zum Auffinden der verschiedenen Parameter wie Übergangswahrscheinlichkeiten?

Ich habe von neuronalen Netzen und Bayes'scher statistischer Inferenz gehört. Sind diese Konzepte HMM ähnlich?

Fünf antworten:
lejlot
2013-09-14 13:48:07 UTC
view on stackexchange narkive permalink

HMMs sind ein Sonderfall von probabilistischen grafischen Modellen ( PGM ), die einen sehr breiten Bereich von mehr oder weniger verwandten (in Bedingungen für bestimmte Anwendungsmodelle.

Es gibt zumindest generische Modelle, die Sie ausprobieren könnten:

  • Bedingte Zufallsfelder ( CRF ) )
  • Bayesianische Netzwerke

Es ist auch erwähnenswert, dass man auf der coursera-Plattform einen guten Einführungskurs in Bezug auf PGMs finden kann: https: // www .coursera.org / course / pgm

Neuronale Netze hingegen sind ein ziemlich allgemeiner Begriff, der Dutzende von tatsächlichen Modellen umfasst. Das gebräuchlichste Verständnis dieses Begriffs, dh. Multi Layer Perceptron (auch als künstliches neuronales Netzwerk, Feedforward Neural Network bezeichnet) ist ein anderes Konzept, das eher eine Regressionsmethode als ein tatsächliches Wahrscheinlichkeitsmodell ist. Andererseits gibt es einige probabilistische Versionen neuronaler Netze, die für ähnliche Aufgaben verwendet werden können.

David J. Harris
2013-09-18 22:26:23 UTC
view on stackexchange narkive permalink

Hier gibt es bereits einige gute Antworten, aber ich dachte, ich würde mich noch einer anschließen, die in Bereichen im Zusammenhang mit der Gestenerkennung verwendet wurde.

Dieses Papier von Taylor, Hinton und Roweis ähnelt einem HMM in dem Sinne, dass es sich um ein Zeitreihenmodell mit latenten Zuständen handelt, aber:

1) Die Struktur der verborgenen Zustände kann viel komplexer sein (viele, viele mehr mögliche Zustände) und

2) Viele der Verbindungen sind ungerichtet (wie in einem bedingten Zufallsfeld oder einem Markov-Zufallsfeld) und nicht gerichtet.

Abbildung 2 zeigt ein Diagramm von Das Grundmodell und die Autoren haben einige großartige Videos darüber, was das Modell auf ihren Websites lernen kann.

bayerj
2013-09-19 01:12:44 UTC
view on stackexchange narkive permalink

Wiederkehrende neuronale Netze sind ein Unterscheidungsmodell, mit dem viele Aufgaben gelöst werden können, für die Sie normalerweise ein HMM verwenden würden. Sie sind jetzt (zumindest wenn der TIMIT-Benchmark korrekt ist) der Stand der Spracherkennung. Sie werden erfolgreich in der Sprachmodellierung und in vielen weiteren Bereichen eingesetzt. Ein guter Einführungstext ist Ilya Sutskevers Doktorarbeit.

Wayne
2013-09-13 19:12:25 UTC
view on stackexchange narkive permalink

Ich bin nicht sicher, ob es nach Ihren Kriterien qualifiziert ist, aber Kalman-Filter ähneln HMMs mit kontinuierlichem (Gaußschem) latenten Zustandsraum.

ngiann
2013-09-18 21:56:14 UTC
view on stackexchange narkive permalink

Möglicherweise möchten Sie sich mit Echo State Networks befassen, obwohl diese Übergangswahrscheinlichkeiten zwischen Zuständen nicht explizit modellieren. Sie sind einfach zu implementieren und schnell zu trainieren.

Hier ist ein einführender Artikel, den Sie möglicherweise nützlich finden: http://www.scholarpedia.org/article/Echo_state_network



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...