論文の概要: Disentangled Sticky Hierarchical Dirichlet Process Hidden Markov Model
- arxiv url: http://arxiv.org/abs/2004.03019v2
- Date: Mon, 22 Jun 2020 00:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:52:55.907203
- Title: Disentangled Sticky Hierarchical Dirichlet Process Hidden Markov Model
- Title(参考訳): 絡み合った階層型ディリクレ過程隠れマルコフモデル
- Authors: Ding Zhou, Yuanjun Gao, Liam Paninski
- Abstract要約: HDP-HMMの頑健な拡張は、HDP-HMMの自己パーシステンス確率を高めるために提案されている。
本稿では、より一般的なモデルとして、不整合なHDP-HMMを提案する。
その結果,HDP-HMMとHDP-HMMは,合成データと実データの両方で優れていた。
- 参考スコア(独自算出の注目度): 11.327093154048637
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Hierarchical Dirichlet Process Hidden Markov Model (HDP-HMM) has been
used widely as a natural Bayesian nonparametric extension of the classical
Hidden Markov Model for learning from sequential and time-series data. A sticky
extension of the HDP-HMM has been proposed to strengthen the self-persistence
probability in the HDP-HMM. However, the sticky HDP-HMM entangles the strength
of the self-persistence prior and transition prior together, limiting its
expressiveness. Here, we propose a more general model: the disentangled sticky
HDP-HMM (DS-HDP-HMM). We develop novel Gibbs sampling algorithms for efficient
inference in this model. We show that the disentangled sticky HDP-HMM
outperforms the sticky HDP-HMM and HDP-HMM on both synthetic and real data, and
apply the new approach to analyze neural data and segment behavioral video
data.
- Abstract(参考訳): Hierarchical Dirichlet Process Hidden Markov Model (HDP-HMM) は古典的Hidden Markov Modelの自然ベイズ的非パラメトリック拡張として、時系列および時系列データから学習するために広く用いられている。
HDP-HMMの頑健な拡張はHDP-HMMの自己パースペンス確率を高めるために提案されている。
しかし、粘着性HDP-HMMは自己パーシスタンス前の強度と遷移前の強さを絡み合わせ、表現性を制限する。
本稿では,HDP-HMM(DS-HDP-HMM)という,より一般的なモデルを提案する。
このモデルにおいて,効率的な推論のための新しいギブスサンプリングアルゴリズムを開発した。
本研究は,HDP-HMMとHDP-HMMを合成データと実データの両方で比較し,ニューラルデータの解析と行動ビデオデータのセグメント化に新たなアプローチを適用した。
関連論文リスト
- The Recurrent Sticky Hierarchical Dirichlet Process Hidden Markov Model [0.0]
HDP-HMMは古典的隠れマルコフモデルの非パラメトリック拡張である。
我々は,このモデルにおける効率的な推論のための新しいギブスサンプリング戦略を開発した。
RS-HDP-HMMは、合成データと実データセグメンテーションの両方において、不整合HDP-HMM、粘着HDP-HMM、粘着HDP-HMM、HDP-HMMより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-06T21:49:20Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Generative Fractional Diffusion Models [53.36835573822926]
我々は,その基礎となる力学に分数拡散過程を利用する,最初の連続時間スコアベース生成モデルを導入する。
実画像データを用いた評価では,GFDMはFIDが低い値で示されるように,画素幅の多様性と画質の向上を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:53:24Z) - Pyramidal Hidden Markov Model For Multivariate Time Series Forecasting [0.0]
隠れマルコフモデル(HMM)は、その現在の値と以前の値に基づいて時系列の将来値を予測することができる。
本稿では,複数の多段階状態をキャプチャ可能なピラミッド隠れマルコフモデル(PHMM)を提案する。
論文 参考訳(メタデータ) (2023-10-22T16:17:24Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Efficient Learning and Decoding of the Continuous-Time Hidden Markov
Model for Disease Progression Modeling [119.50438407358862]
本稿では,CT-HMMモデルに対する効率的なEMベースの学習手法の完全な特徴付けについて述べる。
EMに基づく学習は、後状態確率の推定と、状態条件付き統計量の計算という2つの課題から成り立っていることを示す。
緑内障データセットとアルツハイマー病データセットを用いて,100以上の状態のCT-HMMを用いて疾患進行の可視化と予測を行う。
論文 参考訳(メタデータ) (2021-10-26T20:06:05Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。