論文の概要: DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation
- arxiv url: http://arxiv.org/abs/2204.13031v1
- Date: Wed, 27 Apr 2022 16:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:30:58.838979
- Title: DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation
- Title(参考訳): DialogVED:対話応答生成のための訓練済み遅延可変エンコーダデコーダモデル
- Authors: Wei Chen, Yeyun Gong, Song Wang, Bolun Yao, Weizhen Qi, Zhongyu Wei,
Xiaowu Hu, Bartuer Zhou, Yi Mao, Weizhu Chen, Biao Cheng, Nan Duan
- Abstract要約: DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
- 参考スコア(独自算出の注目度): 80.45816053153722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialog response generation in open domain is an important research topic
where the main challenge is to generate relevant and diverse responses. In this
paper, we propose a new dialog pre-training framework called DialogVED, which
introduces continuous latent variables into the enhanced encoder-decoder
pre-training framework to increase the relevance and diversity of responses.
With the help of a large dialog corpus (Reddit), we pre-train the model using
the following 4 tasks, used in training language models (LMs) and Variational
Autoencoders (VAEs) literature: 1) masked language model; 2) response
generation; 3) bag-of-words prediction; and 4) KL divergence reduction. We also
add additional parameters to model the turn structure in dialogs to improve the
performance of the pre-trained model. We conduct experiments on PersonaChat,
DailyDialog, and DSTC7-AVSD benchmarks for response generation. Experimental
results show that our model achieves the new state-of-the-art results on all
these datasets.
- Abstract(参考訳): オープンドメインでのダイアログ応答生成は、関連する多様な応答を生成することが主な課題となる重要な研究トピックである。
本稿では、拡張エンコーダデコーダプレトレーニングフレームワークに連続潜時変数を導入し、応答の関連性と多様性を高めるためのダイアログ事前学習フレームワークDialogVEDを提案する。
大きなダイアログコーパス(Reddit)の助けを借りて、トレーニング言語モデル(LM)と変分オートエンコーダ(VAE)の文献で使用される以下の4つのタスクを使用してモデルを事前訓練する。
1) マスキング言語モデル
2) 応答生成
3) 語小数予測,及び
4) KL分散低減。
また、事前学習したモデルのパフォーマンスを改善するために、ダイアログのターン構造をモデル化するために追加パラメータを追加します。
応答生成のためのPersonaChat,DailyDialog,DSTC7-AVSDベンチマークの実験を行った。
実験の結果,これらすべてのデータセットにおいて,新たな最先端結果が得られた。
関連論文リスト
- q2d: Turning Questions into Dialogs to Teach Models How to Search [11.421839177607147]
質問から情報検索ダイアログを生成する自動データ生成パイプラインであるq2dを提案する。
検索クエリによる人書きダイアログに依存する従来の手法とは異なり,提案手法では,より優れた制御とスケールで,クエリベースの基底ダイアログを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-04-27T16:39:15Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - GALAXY: A Generative Pre-trained Model for Task-Oriented Dialog with
Semi-Supervised Learning and Explicit Policy Injection [36.77204909711832]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから,対話ポリシーを明示的に学習する,事前学習型ダイアログモデルを提案する。
具体的には、事前学習中にポリシー最適化のためのダイアログアクト予測タスクを導入し、一貫性の規則化項を用いて、学習した表現を洗練させる。
その結果,GALAXYはタスク指向対話システムの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2021-11-29T15:24:36Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Paraphrase Augmented Task-Oriented Dialog Generation [68.1790912977053]
本稿では,パラフレーズモデルと応答生成モデルを協調訓練するパラフレーズ拡張応答生成(PARG)フレームワークを提案する。
また、ダイアログ状態とダイアログアクトラベルに基づいて、パラフレーズトレーニングデータセットを自動構築する手法も設計する。
論文 参考訳(メタデータ) (2020-04-16T05:12:36Z) - An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation [23.343006562849126]
本稿では,オープンドメイン対話生成作業のための事前学習型トランスフォーマーに基づく自動回帰言語モデルについて実験的に検討する。
事前訓練と微調整の訓練パラダイムは、学習を行うために使用される。
実験は、Weibo、Douban、Reddit、DailyDialog、Persona-Chatといった典型的なシングルターンとマルチターンの対話コーパスで行われる。
論文 参考訳(メタデータ) (2020-03-09T15:20:21Z) - Variational Hierarchical Dialog Autoencoder for Dialog State Tracking
Data Augmentation [59.174903564894954]
本研究では,この手法を,ゴール指向対話のための対話状態追跡タスクに拡張する。
目的指向ダイアログの完全な側面をモデル化するための変分階層型ダイアログオートエンコーダ(VHDA)を提案する。
各種ダイアログデータセットを用いた実験により、生成データ拡張による下流ダイアログトラッカーのロバスト性の向上が示された。
論文 参考訳(メタデータ) (2020-01-23T15:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。