論文の概要: TopicRefine: Joint Topic Prediction and Dialogue Response Generation for
Multi-turn End-to-End Dialogue System
- arxiv url: http://arxiv.org/abs/2109.05187v1
- Date: Sat, 11 Sep 2021 04:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 16:11:14.533739
- Title: TopicRefine: Joint Topic Prediction and Dialogue Response Generation for
Multi-turn End-to-End Dialogue System
- Title(参考訳): TopicRefine:マルチターンエンドツーエンド対話システムのための共同トピック予測と対話応答生成
- Authors: Hongru Wang, Mingyu Cui, Zimo Zhou, Gabriel Pui Cheong Fung, Kam-Fai
Wong
- Abstract要約: マルチターン対話は、常に特定のトピックスレッドに従っており、談話レベルでのトピックシフトは自然に起こる。
これまでの研究では、まずトピックを予測し、関連する応答を生成したり、単にすべてのトピックに注意機構を適用したりしていた。
本稿では,これら2つの課題を同時に学習するためのトピックリファインメント機構を備えた共同フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.135300607779753
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A multi-turn dialogue always follows a specific topic thread, and topic shift
at the discourse level occurs naturally as the conversation progresses,
necessitating the model's ability to capture different topics and generate
topic-aware responses. Previous research has either predicted the topic first
and then generated the relevant response, or simply applied the attention
mechanism to all topics, ignoring the joint distribution of the topic
prediction and response generation models and resulting in uncontrollable and
unrelated responses. In this paper, we propose a joint framework with a topic
refinement mechanism to learn these two tasks simultaneously. Specifically, we
design a three-pass iteration mechanism to generate coarse response first, then
predict corresponding topics, and finally generate refined response conditioned
on predicted topics. Moreover, we utilize GPT2DoubleHeads and BERT for the
topic prediction task respectively, aiming to investigate the effects of joint
learning and the understanding ability of GPT model. Experimental results
demonstrate that our proposed framework achieves new state-of-the-art
performance at response generation task and the great potential understanding
capability of GPT model.
- Abstract(参考訳): マルチターン対話は、常に特定のトピックスレッドに従っており、会話が進行するにつれて、談話レベルでのトピックシフトは自然に起こる。
これまでの研究では、トピックを最初に予測し、関連する応答を生成したり、トピックの予測と応答生成モデルの連関分布を無視して、すべてのトピックに注意機構を適用したり、制御不能で無関係な応答をもたらしたりしてきた。
本稿では,これら2つのタスクを同時に学習するためのトピックリファインメント機構を備えた共同フレームワークを提案する。
具体的には,まず粗い応答を生成し,次いで対応するトピックを予測し,最終的に予測されたトピックを条件とした洗練された応答を生成する3パス反復機構を設計する。
さらに,GPT2DoubleHeadsとBERTをそれぞれトピック予測タスクに利用し,共同学習の効果とGPTモデルの理解能力について検討する。
実験結果から,提案フレームワークは応答生成タスクにおける新しい最先端性能とGPTモデルの潜在能力を実現することが示された。
関連論文リスト
- Unsupervised Mutual Learning of Discourse Parsing and Topic Segmentation in Dialogue [37.618612723025784]
対話システムでは、会話の焦点の管理と対話のコーディネートにおいて、会話が重要な役割を果たす。
修辞的構造と主題的構造という2つの重要な構造から構成される。
我々は、修辞構造とトピック構造を統合する統一表現を導入し、それら間のセマンティック一貫性を確保する。
本稿では,レトリック構造とトピック構造を協調的にモデル化し,追加アノテーションを必要とせずに相互に強化できる教師なし相互学習フレームワーク(UMLF)を提案する。
論文 参考訳(メタデータ) (2024-05-30T08:10:50Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Sequential Topic Selection Model with Latent Variable for Topic-Grounded
Dialogue [21.1427816176227]
我々は,すべての会話における話題遷移を活用するために,SGTA(Sequential Global Topic Attention)という新しいアプローチを提案する。
我々のモデルは予測および生成タスクの競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2022-10-17T07:34:14Z) - OTTers: One-turn Topic Transitions for Open-Domain Dialogue [11.305029351461306]
オープンドメイン対話における混合イニシアティブは、新しいトピックを積極的に導入するシステムを必要とする。
1ターンのトピック遷移タスクは、システムが協調的で一貫性のある方法で2つのトピックを接続する方法を探索する。
論文 参考訳(メタデータ) (2021-05-28T10:16:59Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Modeling Topical Relevance for Multi-Turn Dialogue Generation [61.87165077442267]
マルチターン対話におけるトピックドリフト問題に対処する新しいモデルSTAR-BTMを提案する。
バイラルトピックモデルは、トレーニングデータセット全体に基づいて事前トレーニングされ、各コンテキストのトピック表現に基づいてトピックレベルの注意重みが計算される。
中国における顧客サービスデータと英語Ubuntuの対話データの両方の実験結果から、STAR-BTMは最先端の手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-09-27T03:33:22Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。