論文の概要: Whats Missing? Learning Hidden Markov Models When the Locations of
Missing Observations are Unknown
- arxiv url: http://arxiv.org/abs/2203.06527v1
- Date: Sat, 12 Mar 2022 22:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 17:23:59.959761
- Title: Whats Missing? Learning Hidden Markov Models When the Locations of
Missing Observations are Unknown
- Title(参考訳): 不足とは何か?
行方不明の観測場所が不明な隠れマルコフモデルを学ぶ
- Authors: Binyamin Perets, Mark Kozdoba, Shie Mannor
- Abstract要約: 位置欠落の生成モデルを導入し、このモデルのための2つの学習方法、(半)分析手法、およびギブスサンプリング器を提案する。
提案手法を様々なシナリオで評価・比較し, モデル不特定条件下での再現精度とロバスト性を評価する。
- 参考スコア(独自算出の注目度): 54.40592050737724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Hidden Markov Model (HMM) is one of the most widely used statistical
models for sequential data analysis, and it has been successfully applied in a
large variety of domains. One of the key reasons for this versatility is the
ability of HMMs to deal with missing data. However, standard HMM learning
algorithms rely crucially on the assumption that the positions of the missing
observations within the observation sequence are known. In some situations
where such assumptions are not feasible, a number of special algorithms have
been developed. Currently, these algorithms rely strongly on specific
structural assumptions of the underlying chain, such as acyclicity, and are not
applicable in the general case. In particular, there are numerous domains
within medicine and computational biology, where the missing observation
locations are unknown and acyclicity assumptions do not hold, thus presenting a
barrier for the application of HMMs in those fields. In this paper we consider
a general problem of learning HMMs from data with unknown missing observation
locations (i.e., only the order of the non-missing observations are known). We
introduce a generative model of the location omissions and propose two learning
methods for this model, a (semi) analytic approach, and a Gibbs sampler. We
evaluate and compare the algorithms in a variety of scenarios, measuring their
reconstruction precision and robustness under model misspecification.
- Abstract(参考訳): 隠れマルコフモデル(HMM)は、シーケンシャルデータ解析において最も広く用いられている統計モデルの一つであり、様々な領域でうまく適用されている。
この汎用性の主要な理由の1つは、不足したデータを扱うHMMの能力である。
しかし、標準HMM学習アルゴリズムは、観測シーケンス内の欠落した観測の位置が知られているという仮定に大きく依存している。
このような仮定が実現不可能な状況では、いくつかの特別なアルゴリズムが開発されている。
現在、これらのアルゴリズムは非巡回性のような基礎となる鎖の構造的仮定に強く依存しており、一般には適用できない。
特に、医学や計算生物学には多くの領域があり、欠落した観測位置が不明であり、非周期性の仮定が成り立たないため、これらの分野におけるHMMの適用の障壁となる。
本稿では,未知の観測位置を持つデータからHMMを学習する一般的な問題について考察する。
位置欠落の生成モデルを導入し、このモデルのための2つの学習方法、(半)分析手法、およびギブスサンプリング器を提案する。
様々なシナリオでアルゴリズムを評価し比較し,モデルの誤特定下での再構成精度とロバスト性を測定した。
関連論文リスト
- Unsupervised Learning of Harmonic Analysis Based on Neural HSMM with
Code Quality Templates [0.3233195475347961]
本論文では,隠れ半マルコフモデルに基づく調和解析の教師なし学習法を提案する。
マルコフモデルの遷移確率に基づいて,先行知識のないトニックの認識方法を示す。
論文 参考訳(メタデータ) (2024-03-07T01:29:48Z) - Learning Hidden Markov Models Using Conditional Samples [72.20944611510198]
本稿では,隠れマルコフモデル(HMM)の学習における計算複雑性について述べる。
本稿では,HMMの条件分布からサンプルを問合せする対話型アクセスモデルを提案する。
具体的には、正確な条件付き確率に対するクエリアクセスが可能な設定において、HMMを学習するための効率的なアルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-28T16:53:41Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - On Uncertainty in Deep State Space Models for Model-Based Reinforcement
Learning [21.63642325390798]
RSSMは最適下推定方式を用いており、この推定を用いて訓練されたモデルは、基底真理系のアレター的不確かさを過大評価していることを示す。
そこで本稿では,変分リカレントカルマンネットワーク(VRKN)と呼ばれる,アレタリックおよびてんかんの不確かさをモデル化するための,よく理解されたコンポーネントに基づく代替手法を提案する。
実験の結果,RSSMの代わりにVRKNを用いることで,アレータリック不確実性を適切に把握するタスクのパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2022-10-17T16:59:48Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - Towards interpretability of Mixtures of Hidden Markov Models [0.0]
隠れマルコフモデル(MHMM)の混合は、シーケンシャルデータのクラスタリングに頻繁に使用される。
MHMMの解釈可能性に対する情報理論的尺度(エントロピー)を提案する。
解釈性を改善するために,エントロピー規則化期待最大化(EM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-23T14:25:03Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。