論文の概要: Hidden Markov Chains, Entropic Forward-Backward, and Part-Of-Speech
Tagging
- arxiv url: http://arxiv.org/abs/2005.10629v1
- Date: Thu, 21 May 2020 13:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:36:25.479535
- Title: Hidden Markov Chains, Entropic Forward-Backward, and Part-Of-Speech
Tagging
- Title(参考訳): 隠れマルコフ鎖, エントロピックフォワードバック, パートオフ音声タギング
- Authors: Elie Azeraf, Emmanuel Monfrini, Emmanuel Vignon, Wojciech Pieczynski
- Abstract要約: 古典的なフォワード・バックワード確率に関連する隠れマルコフ連鎖(HMC)モデルは任意の特徴を扱えない。
問題の原因は, HMC自体ではなく, 復元アルゴリズムの計算方法にある。
本稿では,従来のエントロピックフォワードとエントロピックバックワード(EFB)の確率を用いたHMCベースの復元計算手法を提案する。
- 参考スコア(独自算出の注目度): 5.778730972088575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to take into account the characteristics - also called features -
of observations is essential in Natural Language Processing (NLP) problems.
Hidden Markov Chain (HMC) model associated with classic Forward-Backward
probabilities cannot handle arbitrary features like prefixes or suffixes of any
size, except with an independence condition. For twenty years, this default has
encouraged the development of other sequential models, starting with the
Maximum Entropy Markov Model (MEMM), which elegantly integrates arbitrary
features. More generally, it led to neglect HMC for NLP. In this paper, we show
that the problem is not due to HMC itself, but to the way its restoration
algorithms are computed. We present a new way of computing HMC based
restorations using original Entropic Forward and Entropic Backward (EFB)
probabilities. Our method allows taking into account features in the HMC
framework in the same way as in the MEMM framework. We illustrate the
efficiency of HMC using EFB in Part-Of-Speech Tagging, showing its superiority
over MEMM based restoration. We also specify, as a perspective, how HMCs with
EFB might appear as an alternative to Recurrent Neural Networks to treat
sequential data with a deep architecture.
- Abstract(参考訳): 特徴を考慮に入れる能力 - 観察の特徴(features of observations)とも呼ばれることは、自然言語処理(nlp)の問題において不可欠である。
古典的な前方後方確率に関連する隠れマルコフ連鎖(HMC)モデルは、独立条件を除いて任意の大きさの接頭辞や接尾辞のような任意の特徴を扱えない。
20年間、このデフォルトは、任意の機能をエレガントに統合するMaximum Entropy Markov Model (MEMM)から始まる他のシーケンシャルモデルの開発を奨励してきた。
より一般的には、NLPはHMCを無視した。
本稿では, hmc自体の問題ではなく, その復元アルゴリズムの計算方法が問題であることを示す。
本稿では,従来のエントロピックフォワードとエントロピックバックワード(EFB)の確率を用いたHMCベースの復元計算手法を提案する。
提案手法は,MEMMフレームワークと同様に,HMCフレームワークの機能を考慮したものである。
本稿では,パートオフ音声タグにおけるEFBを用いたHMCの効率について述べる。
我々はまた、EFBを用いたHMCが、深いアーキテクチャでシーケンシャルデータを扱うために、リカレントニューラルネットワークの代替としてどのように見えるかという観点で指定する。
関連論文リスト
- CWF: Consolidating Weak Features in High-quality Mesh Simplification [50.634070540791555]
これらの要件をすべて同時に検討するスムーズな機能を提案する。
この官能基は、通常の異方性項と、セトロイド型ボロノイテッセルレーション(CVT)エネルギー項を含む。
論文 参考訳(メタデータ) (2024-04-24T05:37:17Z) - Max Markov Chain [4.531240717484252]
我々は、高階マルコフ連鎖(HMC)の有用な部分集合に対する新しい表現であるMax Markov Chain(MMC)を紹介する。
MMCはHMCの表現性を保ちながら同義語である。
我々は、MCCがモデリングプロセスにとって価値のある代替手段であり、多くの潜在的な応用があることを示します。
論文 参考訳(メタデータ) (2022-11-02T21:50:54Z) - PyMAF-X: Towards Well-aligned Full-body Model Regression from Monocular
Images [60.33197938330409]
PyMAF-Xは、モノクロ画像からパラメトリックフルボディモデルを復元するための回帰ベースのアプローチである。
PyMAFとPyMAF-Xは、メッシュイメージアライメントを効果的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-07-13T17:58:33Z) - Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown [54.40592050737724]
本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
論文 参考訳(メタデータ) (2022-03-12T22:40:43Z) - Efficient Learning and Decoding of the Continuous-Time Hidden Markov
Model for Disease Progression Modeling [119.50438407358862]
本稿では,CT-HMMモデルに対する効率的なEMベースの学習手法の完全な特徴付けについて述べる。
EMに基づく学習は、後状態確率の推定と、状態条件付き統計量の計算という2つの課題から成り立っていることを示す。
緑内障データセットとアルツハイマー病データセットを用いて,100以上の状態のCT-HMMを用いて疾患進行の可視化と予測を行う。
論文 参考訳(メタデータ) (2021-10-26T20:06:05Z) - BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised
Named Entity Recognition [57.2201011783393]
条件付き隠れマルコフモデル(CHMM)
CHMMは、入力トークンのBERT埋め込みからトークン単位の遷移と放出確率を予測する。
BERTベースのNERモデルを微調整し、ラベルをCHMMで推論する。
論文 参考訳(メタデータ) (2021-05-26T21:18:48Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - DenseHMM: Learning Hidden Markov Models by Learning Dense
Representations [0.0]
本研究では,隠れ状態と観測可能性の両方の密表現を学習できる隠れマルコフモデル(hmms)の修正を提案する。
標準的なHMMと比較して、遷移確率は原子ではなく、カーネル化によるこれらの表現で構成されている。
DenseHMMの性質は、合成および生物医学的データセットで実証的に研究されている。
論文 参考訳(メタデータ) (2020-12-17T17:48:27Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Scaling Hamiltonian Monte Carlo Inference for Bayesian Neural Networks
with Symmetric Splitting [6.684193501969829]
ハミルトニアン・モンテカルロ(英: Hamiltonian Monte Carlo、HMC)は、マルコフ連鎖モンテカルロのアプローチであり、ニューラルネットワークのような高次元モデルにおいて好ましい探索特性を示す。
対称勾配に依存しない分割HMCに対する新たな積分方式を導入する。
提案手法は,大規模機械学習問題に対する推論スキームを考慮した場合,HMCを実現可能な選択肢として示す。
論文 参考訳(メタデータ) (2020-10-14T01:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。