論文の概要: Belief Net: A Filter-Based Framework for Learning Hidden Markov Models from Observations
- arxiv url: http://arxiv.org/abs/2511.10571v1
- Date: Fri, 14 Nov 2025 01:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.935176
- Title: Belief Net: A Filter-Based Framework for Learning Hidden Markov Models from Observations
- Title(参考訳): Belief Net: 観測から隠れマルコフモデルを学ぶためのフィルタベースのフレームワーク
- Authors: Reginald Zhiyan Chen, Heng-Sheng Chang, Prashant G. Mehta,
- Abstract要約: この研究は、勾配に基づく最適化を通じて隠れマルコフモデルを学ぶ新しいフレームワークであるBelief Netを紹介している。
ブラックボックストランスフォーマーモデルとは異なり、Belief Netの学習可能なウェイトは、初期分布、遷移行列、放出行列のロジットである。
合成HMMデータにおいて、Belief NetはBaum-Welchに比べて収束速度が優れ、不完全条件と過完全条件の両方でパラメータの回復に成功している。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hidden Markov Models (HMMs) are fundamental for modeling sequential data, yet learning their parameters from observations remains challenging. Classical methods like the Baum-Welch (EM) algorithm are computationally intensive and prone to local optima, while modern spectral algorithms offer provable guarantees but may produce probability outputs outside valid ranges. This work introduces Belief Net, a novel framework that learns HMM parameters through gradient-based optimization by formulating the HMM's forward filter as a structured neural network. Unlike black-box Transformer models, Belief Net's learnable weights are explicitly the logits of the initial distribution, transition matrix, and emission matrix, ensuring full interpretability. The model processes observation sequences using a decoder-only architecture and is trained end-to-end with standard autoregressive next-observation prediction loss. On synthetic HMM data, Belief Net achieves superior convergence speed compared to Baum-Welch, successfully recovering parameters in both undercomplete and overcomplete settings where spectral methods fail. Comparisons with Transformer-based models are also presented on real-world language data.
- Abstract(参考訳): 隠れマルコフモデル(HMM)はシーケンシャルなデータモデリングの基礎であるが、観測からパラメータを学習することは依然として困難である。
Baum-Welch (EM) アルゴリズムのような古典的な手法は計算集約的で局所最適である一方、現代のスペクトルアルゴリズムは証明可能な保証を提供するが、有効範囲外の確率出力を生成する。
この研究は、HMMのフォワードフィルタを構造化ニューラルネットワークとして定式化し、勾配に基づく最適化を通じてHMMパラメータを学習する新しいフレームワークであるBelief Netを紹介した。
ブラックボックストランスフォーマーモデルとは異なり、Belief Netの学習可能なウェイトは、初期分布、遷移行列、放出行列のロジットであり、完全な解釈可能性を保証する。
モデルはデコーダのみのアーキテクチャを用いて観測シーケンスを処理し、標準の自己回帰的次観測予測損失でエンドツーエンドにトレーニングされる。
合成HMMデータにおいて、Belief NetはBaum-Welchと比較して収束速度が優れており、スペクトル法が失敗する不完全条件と過完全条件の両方でパラメータの回復に成功している。
Transformerベースのモデルとの比較も、実世界の言語データで行われている。
関連論文リスト
- Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Normalizing Flow based Hidden Markov Models for Classification of Speech
Phones with Explainability [25.543231171094384]
説明可能性を求めるため,逐次データ生成モデルを開発した。
我々は、現代のニューラルネットワーク(正規化フロー)と伝統的な生成モデル(隠れマルコフモデル - HMM)を組み合わせる。
提案した生成モデルは、データの可能性を計算することができ、従って、最大形分類法(ML)に直接適合する。
論文 参考訳(メタデータ) (2021-07-01T20:10:55Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。