論文の概要: Guiding attention in Sequence-to-sequence models for Dialogue Act
prediction
- arxiv url: http://arxiv.org/abs/2002.08801v2
- Date: Wed, 26 Feb 2020 07:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 06:30:45.840685
- Title: Guiding attention in Sequence-to-sequence models for Dialogue Act
prediction
- Title(参考訳): 対話行為予測のためのシーケンス・ツー・シーケンスモデルにおける注意喚起
- Authors: Pierre Colombo, Emile Chapuis, Matteo Manica, Emmanuel Vignon,
Giovanna Varni, Chloe Clavel
- Abstract要約: 我々は、タグシーケンシャルのモデリングを改善するために、ニューラルネットワーク翻訳において広く採用されているseq2seqアプローチを活用する。
本研究では、階層エンコーダ、新しい注意機構、およびビームサーチをトレーニングと推論の両方に適用した、DA分類に適したSeq2seqモデルを提案する。
提案手法は,SwDAの精度スコアが85%,MRDAの精度スコアが91.6%である。
- 参考スコア(独自算出の注目度): 10.171893967006017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of predicting dialog acts (DA) based on conversational dialog is a
key component in the development of conversational agents. Accurately
predicting DAs requires a precise modeling of both the conversation and the
global tag dependencies. We leverage seq2seq approaches widely adopted in
Neural Machine Translation (NMT) to improve the modelling of tag sequentiality.
Seq2seq models are known to learn complex global dependencies while currently
proposed approaches using linear conditional random fields (CRF) only model
local tag dependencies. In this work, we introduce a seq2seq model tailored for
DA classification using: a hierarchical encoder, a novel guided attention
mechanism and beam search applied to both training and inference. Compared to
the state of the art our model does not require handcrafted features and is
trained end-to-end. Furthermore, the proposed approach achieves an unmatched
accuracy score of 85% on SwDA, and state-of-the-art accuracy score of 91.6% on
MRDA.
- Abstract(参考訳): 対話対話に基づく対話行動(DA)を予測するタスクは,対話エージェントの開発において重要な要素である。
DAを正確に予測するには、会話とグローバルタグの依存関係の両方を正確にモデリングする必要がある。
我々は、ニューラルネットワーク翻訳(nmt)に広く採用されているseq2seqアプローチを活用して、タグシーケンシャル性のモデリングを改善する。
Seq2seqモデルは複雑なグローバル依存を学習することが知られているが、現在、線形条件付きランダムフィールド(CRF)を用いたアプローチが提案されている。
本稿では,da分類に適したseq2seqモデルを提案する。階層エンコーダ,新しい誘導注意機構,ビーム探索をトレーニングと推論の両方に適用する。
最先端技術と比較して、我々のモデルは手作りの特徴を必要とせず、エンドツーエンドで訓練されている。
さらに,提案手法では,swdaでは85%,mrdaでは91.6%の精度スコアを達成している。
関連論文リスト
- Pretraining Without Attention [114.99187017618408]
本研究では、状態空間モデル(SSM)に基づくシーケンスルーティングの最近の進歩を利用して、注意を払わずに事前学習を探索する。
BiGS は GLUE 上で BERT の事前トレーニング精度と一致し、近似なしで 4096 トークンの長期事前トレーニングに拡張できる。
論文 参考訳(メタデータ) (2022-12-20T18:50:08Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Enhancing Pre-trained Models with Text Structure Knowledge for Question
Generation [2.526624977753083]
テキスト構造を応答位置と構文依存としてモデル化し,これらの制約に対処するために応答局所性モデリングと構文マスクアテンションを提案する。
SQuADデータセットの実験により、提案した2つのモジュールは、トレーニング済みの強力なモデルであるProphetNetよりも性能が向上することが示された。
論文 参考訳(メタデータ) (2022-09-09T08:33:47Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - A Gating Model for Bias Calibration in Generalized Zero-shot Learning [18.32369721322249]
汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T16:41:06Z) - DARER: Dual-task Temporal Relational Recurrent Reasoning Network for
Joint Dialog Sentiment Classification and Act Recognition [39.76268402567324]
共同ダイアログ感情分類(DSC)と行動認識(DAR)の課題は、ダイアログの各発話に対する感情ラベルと行動ラベルを同時に予測することである。
我々は,テキスト予測レベルのインタラクションを統合することで,明示的な依存関係をモデル化する新しいフレームワークを提唱した。
そこで本研究では,まず,文脈,話者,時間に敏感な発話表現を生成するDARERという新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T05:19:18Z) - Complex Event Forecasting with Prediction Suffix Trees: Extended
Technical Report [70.7321040534471]
複合イベント認識(CER)システムは、イベントのリアルタイムストリーム上のパターンを"即時"検出する能力によって、過去20年間に人気が高まっている。
このような現象が実際にCERエンジンによって検出される前に、パターンがいつ発生するかを予測する方法が不足している。
複雑なイベント予測の問題に対処しようとする形式的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-01T09:52:31Z) - Hierarchical Modeling for Out-of-Scope Domain and Intent Classification [55.23920796595698]
本稿では,対話システムにおけるスコープ外意図分類に焦点をあてる。
ドメインとインテントを同時に分類する共同モデルに基づく階層型マルチタスク学習手法を提案する。
実験により、モデルが既存の手法よりも精度、スコープ外リコール、F1で優れていることが示された。
論文 参考訳(メタデータ) (2021-04-30T06:38:23Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Guider l'attention dans les modeles de sequence a sequence pour la
prediction des actes de dialogue [10.171893967006017]
我々は、タグシーケンシャルのモデリングを改善するために、ニューラルネットワーク翻訳において広く採用されているseq2seqアプローチを活用する。
本研究では、階層エンコーダ、新しい注意機構、およびビームサーチをトレーニングと推論の両方に適用した、DA分類に適したSeq2seqモデルを提案する。
提案手法は,SwDAの精度スコアが85%,MRDAの精度スコアが91.6%である。
論文 参考訳(メタデータ) (2020-02-21T17:09:19Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。