論文の概要: The Recurrent Sticky Hierarchical Dirichlet Process Hidden Markov Model
- arxiv url: http://arxiv.org/abs/2411.04278v1
- Date: Wed, 06 Nov 2024 21:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:40:27.841663
- Title: The Recurrent Sticky Hierarchical Dirichlet Process Hidden Markov Model
- Title(参考訳): マルコフモデルを用いた繰り返し粘着型階層型ディリクレ過程
- Authors: Mikołaj Słupiński, Piotr Lipiński,
- Abstract要約: HDP-HMMは古典的隠れマルコフモデルの非パラメトリック拡張である。
我々は,このモデルにおける効率的な推論のための新しいギブスサンプリング戦略を開発した。
RS-HDP-HMMは、合成データと実データセグメンテーションの両方において、不整合HDP-HMM、粘着HDP-HMM、粘着HDP-HMM、HDP-HMMより優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Hierarchical Dirichlet Process Hidden Markov Model (HDP-HMM) is a natural Bayesian nonparametric extension of the classical Hidden Markov Model for learning from (spatio-)temporal data. A sticky HDP-HMM has been proposed to strengthen the self-persistence probability in the HDP-HMM. Then, disentangled sticky HDP-HMM has been proposed to disentangle the strength of the self-persistence prior and transition prior. However, the sticky HDP-HMM assumes that the self-persistence probability is stationary, limiting its expressiveness. Here, we build on previous work on sticky HDP-HMM and disentangled sticky HDP-HMM, developing a more general model: the recurrent sticky HDP-HMM (RS-HDP-HMM). We develop a novel Gibbs sampling strategy for efficient inference in this model. We show that RS-HDP-HMM outperforms disentangled sticky HDP-HMM, sticky HDP-HMM, and HDP-HMM in both synthetic and real data segmentation.
- Abstract(参考訳): 階層的ディリクレ過程ハイデンマルコフモデル(Hierarchical Dirichlet Process Hidden Markov Model、HDP-HMM)は、時空間データから学習するための古典的ハイデンマルコフモデルの自然なベイズ的非パラメトリック拡張である。
粘着性HDP-HMMはHDP-HMMの自己持続確率を高めるために提案されている。
そこで, 遠絡付粘着HDP-HMMが提案され, 自己パーシスタンス前の強度と遷移前の強度を遠絡させる。
しかし、粘着性HDP-HMMは自己パースペンス確率が定常であると仮定し、その表現性を制限する。
本稿では,より一般的なモデルであるRS-HDP-HMM(recurrent sticky HDP-HMM)を開発した。
我々は,このモデルにおける効率的な推論のための新しいギブスサンプリング戦略を開発した。
RS-HDP-HMMは、合成データと実データセグメンテーションの両方において、不整合HDP-HMM、粘着HDP-HMM、粘着HDP-HMM、HDP-HMMより優れていることを示す。
関連論文リスト
- Generative Fractional Diffusion Models [53.36835573822926]
我々は,その基礎となる力学に分数拡散過程を利用する,最初の連続時間スコアベース生成モデルを導入する。
実画像データを用いた評価では,GFDMはFIDが低い値で示されるように,画素幅の多様性と画質の向上を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:53:24Z) - Pyramidal Hidden Markov Model For Multivariate Time Series Forecasting [0.0]
隠れマルコフモデル(HMM)は、その現在の値と以前の値に基づいて時系列の将来値を予測することができる。
本稿では,複数の多段階状態をキャプチャ可能なピラミッド隠れマルコフモデル(PHMM)を提案する。
論文 参考訳(メタデータ) (2023-10-22T16:17:24Z) - Diffusion Probabilistic Model Made Slim [128.2227518929644]
軽量画像合成のためのスリム拡散確率モデル(DPM)のカスタマイズ設計を提案する。
一連の条件および非条件画像生成タスクにおける遅延拡散モデルと比較して,計算複雑性を8-18倍に削減する。
論文 参考訳(メタデータ) (2022-11-27T16:27:28Z) - Efficient Learning and Decoding of the Continuous-Time Hidden Markov
Model for Disease Progression Modeling [119.50438407358862]
本稿では,CT-HMMモデルに対する効率的なEMベースの学習手法の完全な特徴付けについて述べる。
EMに基づく学習は、後状態確率の推定と、状態条件付き統計量の計算という2つの課題から成り立っていることを示す。
緑内障データセットとアルツハイマー病データセットを用いて,100以上の状態のCT-HMMを用いて疾患進行の可視化と予測を行う。
論文 参考訳(メタデータ) (2021-10-26T20:06:05Z) - Ranking and Tuning Pre-trained Models: A New Paradigm of Exploiting
Model Hubs [136.4492678691406]
本稿では,事前学習したモデルのランク付けとチューニングにより,モデルハブを利用する新しいパラダイムを提案する。
最高のランク付けされたPTMは、モデルのアーキテクチャを好まない場合は、微調整とデプロイが可能です。
チューニング部は、専用メソッドを超越した、複数 PTM チューニングのための新しい手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T12:59:23Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Disentangled Sticky Hierarchical Dirichlet Process Hidden Markov Model [11.327093154048637]
HDP-HMMの頑健な拡張は、HDP-HMMの自己パーシステンス確率を高めるために提案されている。
本稿では、より一般的なモデルとして、不整合なHDP-HMMを提案する。
その結果,HDP-HMMとHDP-HMMは,合成データと実データの両方で優れていた。
論文 参考訳(メタデータ) (2020-04-06T22:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。