論文の概要: Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown
- arxiv url: http://arxiv.org/abs/2203.06527v3
- Date: Sun, 2 Jul 2023 11:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:16:57.408264
- Title: Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown
- Title(参考訳): 行方不明の観測場所が不明な隠れマルコフモデルを学ぶ
- Authors: Binyamin Perets, Mark Kozdoba, Shie Mannor
- Abstract要約: 本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
- 参考スコア(独自算出の注目度): 54.40592050737724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Hidden Markov Model (HMM) is one of the most widely used statistical
models for sequential data analysis. One of the key reasons for this
versatility is the ability of HMM to deal with missing data. However, standard
HMM learning algorithms rely crucially on the assumption that the positions of
the missing observations \emph{within the observation sequence} are known. In
the natural sciences, where this assumption is often violated, special variants
of HMM, commonly known as Silent-state HMMs (SHMMs), are used. Despite their
widespread use, these algorithms strongly rely on specific structural
assumptions of the underlying chain, such as acyclicity, thus limiting the
applicability of these methods. Moreover, even in the acyclic case, it has been
shown that these methods can lead to poor reconstruction. In this paper we
consider the general problem of learning an HMM from data with unknown missing
observation locations. We provide reconstruction algorithms that do not require
any assumptions about the structure of the underlying chain, and can also be
used with limited prior knowledge, unlike SHMM. We evaluate and compare the
algorithms in a variety of scenarios, measuring their reconstruction precision,
and robustness under model miss-specification. Notably, we show that under
proper specifications one can reconstruct the process dynamics as well as if
the missing observations positions were known.
- Abstract(参考訳): 隠れマルコフモデル(HMM)は、シーケンシャルデータ解析において最も広く使われている統計モデルの一つである。
この汎用性の主要な理由の1つは、HMMが欠落したデータを扱う能力である。
しかし、標準HMM学習アルゴリズムは、欠落した観測である 'emph{within the Observation sequence} の位置が知られているという仮定に大きく依存している。
この仮定にはしばしば違反する自然科学では、Silent-state HMMs (SHMMs)として知られるHMMの特別な変種が用いられる。
広く使われているにもかかわらず、これらのアルゴリズムは非巡回性のような基底鎖の特定の構造的仮定に強く依存しており、これらの方法の適用可能性を制限する。
また, 非循環例においても, これらの方法が再建不良につながることが示されている。
本稿では,未知の観測位置を持つデータからhmmを学習する一般的な問題について考察する。
SHMMとは異なり,本アルゴリズムでは,基礎となる鎖の構造に関する仮定を一切必要とせず,事前知識を限定して使用することもできる。
各種シナリオにおけるアルゴリズムの評価と比較を行い,モデルミス特定に基づく再現精度とロバスト性を評価する。
特に, 適切な仕様の下では, 観測位置が分かっていない場合と同様に, プロセスダイナミクスを再構築できることを示した。
関連論文リスト
- Unsupervised Learning of Harmonic Analysis Based on Neural HSMM with
Code Quality Templates [0.3233195475347961]
本論文では,隠れ半マルコフモデルに基づく調和解析の教師なし学習法を提案する。
マルコフモデルの遷移確率に基づいて,先行知識のないトニックの認識方法を示す。
論文 参考訳(メタデータ) (2024-03-07T01:29:48Z) - Learning Hidden Markov Models Using Conditional Samples [72.20944611510198]
本稿では,隠れマルコフモデル(HMM)の学習における計算複雑性について述べる。
本稿では,HMMの条件分布からサンプルを問合せする対話型アクセスモデルを提案する。
具体的には、正確な条件付き確率に対するクエリアクセスが可能な設定において、HMMを学習するための効率的なアルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-28T16:53:41Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - On Uncertainty in Deep State Space Models for Model-Based Reinforcement
Learning [21.63642325390798]
RSSMは最適下推定方式を用いており、この推定を用いて訓練されたモデルは、基底真理系のアレター的不確かさを過大評価していることを示す。
そこで本稿では,変分リカレントカルマンネットワーク(VRKN)と呼ばれる,アレタリックおよびてんかんの不確かさをモデル化するための,よく理解されたコンポーネントに基づく代替手法を提案する。
実験の結果,RSSMの代わりにVRKNを用いることで,アレータリック不確実性を適切に把握するタスクのパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2022-10-17T16:59:48Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - Towards interpretability of Mixtures of Hidden Markov Models [0.0]
隠れマルコフモデル(MHMM)の混合は、シーケンシャルデータのクラスタリングに頻繁に使用される。
MHMMの解釈可能性に対する情報理論的尺度(エントロピー)を提案する。
解釈性を改善するために,エントロピー規則化期待最大化(EM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-23T14:25:03Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。