論文の概要: Converse, Focus and Guess -- Towards Multi-Document Driven Dialogue
- arxiv url: http://arxiv.org/abs/2102.02435v1
- Date: Thu, 4 Feb 2021 06:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:33:12.741144
- Title: Converse, Focus and Guess -- Towards Multi-Document Driven Dialogue
- Title(参考訳): Converse, Focus, Guess -- マルチドキュメント駆動対話を目指して
- Authors: Han Liu, Caixia Yuan, Xiaojie Wang, Yushu Yang, Huixing Jiang,
Zhongyuan Wang
- Abstract要約: 本稿では,対話を指導することで,ユーザが興味を持っている対象文書をエージェントが推測できる,MD3(Multi-Document Driven Dialogue)を提案する。
GuessMovieには16,881の文書があり、それぞれが映画と関連する13,434の対話を記述している。
提案手法はいくつかの強力なベースライン法よりも優れており,人間の性能に非常に近い。
- 参考スコア(独自算出の注目度): 53.380996227212165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel task, Multi-Document Driven Dialogue (MD3), in which an
agent can guess the target document that the user is interested in by leading a
dialogue. To benchmark progress, we introduce a new dataset of GuessMovie,
which contains 16,881 documents, each describing a movie, and associated 13,434
dialogues. Further, we propose the MD3 model. Keeping guessing the target
document in mind, it converses with the user conditioned on both document
engagement and user feedback. In order to incorporate large-scale external
documents into the dialogue, it pretrains a document representation which is
sensitive to attributes it talks about an object. Then it tracks dialogue state
by detecting evolvement of document belief and attribute belief, and finally
optimizes dialogue policy in principle of entropy decreasing and reward
increasing, which is expected to successfully guess the user's target in a
minimum number of turns. Experiments show that our method significantly
outperforms several strong baseline methods and is very close to human's
performance.
- Abstract(参考訳): 本稿では,対話を指導することで,ユーザが興味を持っている対象文書をエージェントが推測できる,MD3(Multi-Document Driven Dialogue)を提案する。
そこで本研究では,映画を記述する16,881の文書と,関連する13,434の対話を含む,新しいデータセットを提案する。
さらに,MD3モデルを提案する。
ターゲットのドキュメントを推測しながら、ドキュメントのエンゲージメントとユーザフィードバックの両方でコンディショニングされたユーザと会話する。
大規模な外部文書を対話に組み込むために、オブジェクトについて話す属性に敏感な文書表現を事前に訓練します。
その後、文書的信念と属性的信念の進化を検出することで対話状態を追跡し、最終的にエントロピー減少と報酬増加の原則で対話ポリシーを最適化し、最小のターン数でユーザーのターゲットを推測することが期待されます。
実験の結果,本手法はいくつかの強力なベースライン法よりも優れており,人間の性能に非常に近いことがわかった。
関連論文リスト
- Multi-Document Grounded Multi-Turn Synthetic Dialog Generation [22.7158929225259]
本稿では,3つの主要なアイデアを取り入れたマルチドキュメント・グラウンド・マルチターン合成ダイアログ生成手法を提案する。
我々は,Chain-of-Thoughtプロンプトによって生成される分類に基づくユーザクエリを用いて,ダイアログ全体のフローを制御する。
我々は,複数文書の接地ダイアログの生成を支援する。
論文 参考訳(メタデータ) (2024-09-17T19:02:39Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Dialog Inpainting: Turning Documents into Dialogs [12.131506050808207]
私たちは2つのデータセットを作成し、1900万の多様な情報検索ダイアログを作成しました。
WikiDialogの回答の妥当性と会話性は、既存の手作業によるデータセットよりも優れているか、あるいは優れていると判断する。
論文 参考訳(メタデータ) (2022-05-18T16:58:50Z) - DG2: Data Augmentation Through Document Grounded Dialogue Generation [41.81030088619399]
生成対話モデルを用いて文書に基づく自動データ拡張手法を提案する。
元のデータセットを補うと、従来のデータ拡張手法よりも大幅に改善される。
論文 参考訳(メタデータ) (2021-12-15T18:50:14Z) - User Response and Sentiment Prediction for Automatic Dialogue Evaluation [69.11124655437902]
本稿では,次のユーザ発話の感情をターンレベル評価やダイアログレベル評価に利用することを提案する。
実験により,本モデルによる音声対話データセットと音声対話データセットの両方において,既存の自動評価指標よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-16T22:19:17Z) - A Compare Aggregate Transformer for Understanding Document-grounded
Dialogue [27.04964963480175]
本稿では,対話コンテキストを協調的に認知し,応答生成のための文書情報を集約する比較集約変換器(CAT)を提案する。
CMUDoGデータセットの実験結果は、提案したCATモデルが最先端のアプローチと強力なベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-10-01T03:44:44Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。