論文の概要: Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows
- arxiv url: http://arxiv.org/abs/2102.07284v1
- Date: Mon, 15 Feb 2021 00:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:20:42.978824
- Title: Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows
- Title(参考訳): 隠れマルコフモデルと正規化流れの混合によるロバスト分類
- Authors: Anubhab Ghosh, Antoine Honor\'e, Dong Liu, Gustav Eje Henter, Saikat
Chatterjee
- Abstract要約: 我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
- 参考スコア(独自算出の注目度): 25.543231171094384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We test the robustness of a maximum-likelihood (ML) based classifier where
sequential data as observation is corrupted by noise. The hypothesis is that a
generative model, that combines the state transitions of a hidden Markov model
(HMM) and the neural network based probability distributions for the hidden
states of the HMM, can provide a robust classification performance. The
combined model is called normalizing-flow mixture model based HMM (NMM-HMM). It
can be trained using a combination of expectation-maximization (EM) and
backpropagation. We verify the improved robustness of NMM-HMM classifiers in an
application to speech recognition.
- Abstract(参考訳): 観測データとしてのシーケンシャルデータがノイズによって破損する最大親和性(ML)に基づく分類器の堅牢性をテストする。
この仮説は、隠れマルコフモデル(HMM)の状態遷移と、隠れたHMMの状態に対するニューラルネットワークベースの確率分布を組み合わせた生成モデルが、堅牢な分類性能を提供することができるというものである。
混合モデルは正規化フロー混合モデルベースHMM(NMM-HMM)と呼ばれる。
予測最大化(EM)とバックプロパゲーションを組み合わせてトレーニングすることができる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
関連論文リスト
- Fuzzy Cognitive Maps and Hidden Markov Models: Comparative Analysis of
Efficiency within the Confines of the Time Series Classification Task [0.0]
時系列分類における隠れマルコフモデル(HMM)の適用について検討する。
HMM NN (HMM, 1シリーズ), HMM 1C (HMM, 1クラス), FCM NN, FCM 1C の4つのモデルを連続実験で検討した。
論文 参考訳(メタデータ) (2022-04-28T12:41:05Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown [54.40592050737724]
本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
論文 参考訳(メタデータ) (2022-03-12T22:40:43Z) - Learning Circular Hidden Quantum Markov Models: A Tensor Network
Approach [34.77250498401055]
c-HQMMは制約付きテンソルネットワークと等価であることを示す。
この等価性により、c-HQMMの効率的な学習モデルを提供することができる。
提案手法は6つの実データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-10-29T23:09:31Z) - Normalizing Flow based Hidden Markov Models for Classification of Speech
Phones with Explainability [25.543231171094384]
説明可能性を求めるため,逐次データ生成モデルを開発した。
我々は、現代のニューラルネットワーク(正規化フロー)と伝統的な生成モデル(隠れマルコフモデル - HMM)を組み合わせる。
提案した生成モデルは、データの可能性を計算することができ、従って、最大形分類法(ML)に直接適合する。
論文 参考訳(メタデータ) (2021-07-01T20:10:55Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Malware Classification with GMM-HMM Models [8.02151721194722]
本稿では,GMM-HMMをマルウェア分類に用いた結果と,離散HMMを用いた結果を比較した。
当社のオプコード機能では、GMM-HMMは離散HMMを使用して得られる結果に匹敵する結果をもたらします。
論文 参考訳(メタデータ) (2021-03-03T23:23:48Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。