論文の概要: DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations
- arxiv url: http://arxiv.org/abs/2012.09783v1
- Date: Thu, 17 Dec 2020 17:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:37:51.333954
- Title: DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations
- Title(参考訳): DenseHMM:Dense表現の学習による隠れマルコフモデル学習
- Authors: Joachim Sicking, Maximilian Pintz, Maram Akila, Tim Wirtz
- Abstract要約: 本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose DenseHMM - a modification of Hidden Markov Models (HMMs) that
allows to learn dense representations of both the hidden states and the
observables. Compared to the standard HMM, transition probabilities are not
atomic but composed of these representations via kernelization. Our approach
enables constraint-free and gradient-based optimization. We propose two
optimization schemes that make use of this: a modification of the Baum-Welch
algorithm and a direct co-occurrence optimization. The latter one is highly
scalable and comes empirically without loss of performance compared to standard
HMMs. We show that the non-linearity of the kernelization is crucial for the
expressiveness of the representations. The properties of the DenseHMM like
learned co-occurrences and log-likelihoods are studied empirically on synthetic
and biomedical datasets.
- Abstract(参考訳): 本研究では,隠れマルコフモデル(hidden markov model:hmms)の修正法である densehmm を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
本手法は制約なしおよび勾配ベース最適化を可能にする。
本稿では,baum-welchアルゴリズムの改良と直接共起最適化という2つの最適化手法を提案する。
後者は高度にスケーラブルで、標準的なhmmと比べて経験上パフォーマンスが損なわれない。
カーネル化の非線形性は表現の表現性に不可欠であることを示す。
DenseHMMの学習された共起物やログのような性質は、合成および生医学的なデータセットで経験的に研究されている。
関連論文リスト
- Recursive Learning of Asymptotic Variational Objectives [49.69399307452126]
一般状態空間モデル(英: General State-space Model, SSM)は、統計機械学習において広く用いられ、時系列データに対して最も古典的な生成モデルの一つである。
オンラインシーケンシャルIWAE(OSIWAE)は、潜在状態の推測のためのモデルパラメータとマルコフ認識モデルの両方のオンライン学習を可能にする。
このアプローチは、最近提案されたオンライン変分SMC法よりも理論的によく確立されている。
論文 参考訳(メタデータ) (2024-11-04T16:12:37Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Algebraic Reduction of Hidden Markov Models [0.0]
与えられた出力プロセスの単一時間分布を正確に再現するモデルを返す2つのアルゴリズムを提案する。
この還元法は、観測された出力の構造だけでなく、初期状態も利用している。
最適アルゴリズムはHMM(すなわちHMM)のクラスのために導出される。
論文 参考訳(メタデータ) (2022-08-11T02:46:05Z) - Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown [54.40592050737724]
本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
論文 参考訳(メタデータ) (2022-03-12T22:40:43Z) - Towards interpretability of Mixtures of Hidden Markov Models [0.0]
隠れマルコフモデル(MHMM)の混合は、シーケンシャルデータのクラスタリングに頻繁に使用される。
MHMMの解釈可能性に対する情報理論的尺度(エントロピー)を提案する。
解釈性を改善するために,エントロピー規則化期待最大化(EM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-23T14:25:03Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - A Rigorous Link Between Self-Organizing Maps and Gaussian Mixture Models [78.6363825307044]
本研究は、自己組織化マップ(SOM)とガウス混合モデル(GMM)の関係を数学的に扱うものである。
我々は,エネルギーベースSOMモデルを勾配勾配下降と解釈できることを示した。
このリンクはSOMsを生成確率モデルとして扱うことができ、SOMsを使用して外れ値を検出したりサンプリングしたりするための正式な正当性を与える。
論文 参考訳(メタデータ) (2020-09-24T14:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。