論文の概要: DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations
- arxiv url: http://arxiv.org/abs/2012.09783v1
- Date: Thu, 17 Dec 2020 17:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:37:51.333954
- Title: DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations
- Title(参考訳): DenseHMM:Dense表現の学習による隠れマルコフモデル学習
- Authors: Joachim Sicking, Maximilian Pintz, Maram Akila, Tim Wirtz
- Abstract要約: 本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose DenseHMM - a modification of Hidden Markov Models (HMMs) that
allows to learn dense representations of both the hidden states and the
observables. Compared to the standard HMM, transition probabilities are not
atomic but composed of these representations via kernelization. Our approach
enables constraint-free and gradient-based optimization. We propose two
optimization schemes that make use of this: a modification of the Baum-Welch
algorithm and a direct co-occurrence optimization. The latter one is highly
scalable and comes empirically without loss of performance compared to standard
HMMs. We show that the non-linearity of the kernelization is crucial for the
expressiveness of the representations. The properties of the DenseHMM like
learned co-occurrences and log-likelihoods are studied empirically on synthetic
and biomedical datasets.
- Abstract(参考訳): 本研究では,隠れマルコフモデル(hidden markov model:hmms)の修正法である densehmm を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
本手法は制約なしおよび勾配ベース最適化を可能にする。
本稿では,baum-welchアルゴリズムの改良と直接共起最適化という2つの最適化手法を提案する。
後者は高度にスケーラブルで、標準的なhmmと比べて経験上パフォーマンスが損なわれない。
カーネル化の非線形性は表現の表現性に不可欠であることを示す。
DenseHMMの学習された共起物やログのような性質は、合成および生医学的なデータセットで経験的に研究されている。
関連論文リスト
- Stochastic Variational Smoothed Model Checking [1.5293427903448025]
パラメトリックモデルのモデルチェックは、モデルのパラメータの関数として、ある特性の満足度確率をチェックするものとして表現することができる。
本稿では,確率論的機械学習の最近の進歩を利用して,この限界を推し進める。
本稿では, SV-smMCの性能を, 拡張性, 計算効率, 再構成された満足度関数の精度で比較する。
論文 参考訳(メタデータ) (2022-05-11T10:43:23Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Learning Augmentation Distributions using Transformed Risk Minimization [57.26478426751793]
データ分散の構造に適応することは、機械学習において重要な課題である。
拡張変換の分布を学習するための新しい手法を,新しいEmphTransformed Risk Minimization (TRM) フレームワークで提案する。
論文 参考訳(メタデータ) (2021-11-16T02:07:20Z) - Learning Circular Hidden Quantum Markov Models: A Tensor Network
Approach [34.77250498401055]
c-HQMMは制約付きテンソルネットワークと等価であることを示す。
この等価性により、c-HQMMの効率的な学習モデルを提供することができる。
提案手法は6つの実データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-10-29T23:09:31Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Towards interpretability of Mixtures of Hidden Markov Models [0.0]
隠れマルコフモデル(MHMM)の混合は、シーケンシャルデータのクラスタリングに頻繁に使用される。
MHMMの解釈可能性に対する情報理論的尺度(エントロピー)を提案する。
解釈性を改善するために,エントロピー規則化期待最大化(EM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-23T14:25:03Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。