論文の概要: Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension
- arxiv url: http://arxiv.org/abs/2012.07410v1
- Date: Mon, 14 Dec 2020 10:58:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 02:45:30.595083
- Title: Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension
- Title(参考訳): ダイアログにおける推論:文脈読解による応答生成の改善
- Authors: Xiuying Chen, Zhi Cui, Jiayi Zhang, Chen Wei, Jianwei Cui, Bin Wang,
Dongyan Zhao, Rui Yan
- Abstract要約: マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
- 参考スコア(独自算出の注目度): 49.92173751203827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In multi-turn dialog, utterances do not always take the full form of
sentences \cite{Carbonell1983DiscoursePA}, which naturally makes understanding
the dialog context more difficult. However, it is essential to fully grasp the
dialog context to generate a reasonable response. Hence, in this paper, we
propose to improve the response generation performance by examining the model's
ability to answer a reading comprehension question, where the question is
focused on the omitted information in the dialog. Enlightened by the multi-task
learning scheme, we propose a joint framework that unifies these two tasks,
sharing the same encoder to extract the common and task-invariant features with
different decoders to learn task-specific features. To better fusing
information from the question and the dialog history in the encoding part, we
propose to augment the Transformer architecture with a memory updater, which is
designed to selectively store and update the history dialog information so as
to support downstream tasks. For the experiment, we employ human annotators to
write and examine a large-scale dialog reading comprehension dataset. Extensive
experiments are conducted on this dataset, and the results show that the
proposed model brings substantial improvements over several strong baselines on
both tasks. In this way, we demonstrate that reasoning can indeed help better
response generation and vice versa. We release our large-scale dataset for
further research.
- Abstract(参考訳): マルチターンダイアログでは、発話は常に文の完全な形を取るとは限らないため、自然にダイアログの文脈を理解するのが難しくなる。
しかし、適切な応答を生成するために、ダイアログコンテキストを完全に把握することが不可欠である。
そこで本研究では,対話中の省略された情報に着目した読み解き質問に対して,モデルの応答能力を調べることにより,応答生成性能を向上させることを提案する。
本稿では,マルチタスク学習方式に照らし合わせて,これら2つのタスクを統一し,同じエンコーダを共有し,異なるデコーダを持つ共通およびタスク不変な特徴を抽出し,タスク固有の特徴を学習する統合フレームワークを提案する。
符号化部における質問やダイアログ履歴の融合を改善するため、下流タスクをサポートするために履歴ダイアログ情報を選択的に保存・更新するメモリ更新器を用いてトランスフォーマーアーキテクチャを拡張することを提案する。
実験では,人間のアノテーションを用いて大規模な対話読解データセットを記述・検討した。
このデータセットで広範な実験を行い,提案手法が両タスクの強力なベースラインに対して大幅に改善することを示す。
このようにして、推論が応答生成の改善に有効であり、その逆であることを示す。
我々はさらなる研究のために大規模なデータセットをリリースします。
関連論文リスト
- Enhancing Multimodal Query Representation via Visual Dialogues for End-to-End Knowledge Retrieval [26.585985828583304]
本稿では,マルチモーダルクエリを理解可能なテキスト検索機能を実現するために,エンドツーエンドのマルチモーダル検索システムRet-XKnowを提案する。
マルチモーダルインタラクションを効果的に学習するために、視覚対話データセットから構築したVisual Dialogue-to-Retrievalデータセットも導入する。
提案手法は,ゼロショット設定における検索性能を大幅に向上するだけでなく,微調整シナリオの大幅な改善も達成できることを示す。
論文 参考訳(メタデータ) (2024-11-13T04:32:58Z) - Enhancing Visual Dialog State Tracking through Iterative Object-Entity Alignment in Multi-Round Conversations [3.784841749866846]
MDST(Multi-round Dialogue State Tracking Model)を導入する。
MDSTは、内的対話状態表現を視覚言語表現の2-タプルとして定義し、各ラウンドの対話履歴をキャプチャする。
VisDial v1.0データセットの実験結果は、MDSTが生成環境において新しい最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-13T08:36:15Z) - CTRLStruct: Dialogue Structure Learning for Open-Domain Response
Generation [38.60073402817218]
十分に構造化されたトピックフローは、バックグラウンド情報を活用し、将来のトピックを予測することで、制御可能で説明可能な応答を生成する。
本稿では,話題レベルの対話クラスタを効果的に探索する対話構造学習のための新しいフレームワークを提案する。
2つの人気のあるオープンドメイン対話データセットの実験は、優れた対話モデルと比較して、我々のモデルはより一貫性のある応答を生成できることを示している。
論文 参考訳(メタデータ) (2023-03-02T09:27:11Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - Counterfactual Data Augmentation via Perspective Transition for
Open-Domain Dialogues [34.78482218571574]
本稿では,異なるセマンティクスによる高品質な応答を自動的に拡張するデータ拡張手法を提案する。
実験結果から,データ拡張手法は対話履歴の異なるセマンティクスで高品質な応答を増強し,複数の下流タスクにおいて競合的ベースラインを上回り得ることが示された。
論文 参考訳(メタデータ) (2022-10-30T13:26:49Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。