論文の概要: Ranking Enhanced Dialogue Generation
- arxiv url: http://arxiv.org/abs/2008.05640v1
- Date: Thu, 13 Aug 2020 01:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 22:21:24.689326
- Title: Ranking Enhanced Dialogue Generation
- Title(参考訳): ランキング強化対話生成
- Authors: Changying Hao, Liang Pang, Yanyan Lan, Fei Sun, Jiafeng Guo, Xueqi
Cheng
- Abstract要約: 対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 77.8321855074999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How to effectively utilize the dialogue history is a crucial problem in
multi-turn dialogue generation. Previous works usually employ various neural
network architectures (e.g., recurrent neural networks, attention mechanisms,
and hierarchical structures) to model the history. However, a recent empirical
study by Sankar et al. has shown that these architectures lack the ability of
understanding and modeling the dynamics of the dialogue history. For example,
the widely used architectures are insensitive to perturbations of the dialogue
history, such as words shuffling, utterances missing, and utterances
reordering. To tackle this problem, we propose a Ranking Enhanced Dialogue
generation framework in this paper. Despite the traditional representation
encoder and response generation modules, an additional ranking module is
introduced to model the ranking relation between the former utterance and
consecutive utterances. Specifically, the former utterance and consecutive
utterances are treated as query and corresponding documents, and both local and
global ranking losses are designed in the learning process. In this way, the
dynamics in the dialogue history can be explicitly captured. To evaluate our
proposed models, we conduct extensive experiments on three public datasets,
i.e., bAbI, PersonaChat, and JDC. Experimental results show that our models
produce better responses in terms of both quantitative measures and human
judgments, as compared with the state-of-the-art dialogue generation models.
Furthermore, we give some detailed experimental analysis to show where and how
the improvements come from.
- Abstract(参考訳): 対話履歴の有効利用は多方向対話生成において重要な課題である。
以前の研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャ(リカレントニューラルネットワーク、アテンション機構、階層構造など)を使用している。
しかし、Sankarらによる最近の実証研究は、これらのアーキテクチャは対話の歴史のダイナミクスを理解し、モデル化する能力が欠けていることを示している。
例えば、広く使われているアーキテクチャは、単語シャッフル、発話の欠如、発話の順序変更など、対話履歴の摂動に敏感である。
この問題に対処するため,本論文ではランキング拡張対話生成フレームワークを提案する。
従来の表現エンコーダと応答生成モジュールにもかかわらず、以前の発話と連続発話のランキング関係をモデル化するための追加のランキングモジュールが導入された。
具体的には、前者の発話と連続した発話をクエリおよび対応する文書として扱い、学習過程において局所的およびグローバル的ランキングロスをデザインする。
このように、対話履歴のダイナミクスを明示的にキャプチャすることができる。
提案モデルを評価するため,bAbI,PersonaChat,JDCの3つの公開データセットについて広範な実験を行った。
実験の結果, 対話生成モデルと比較して, 定量的尺度と人的判断の両方において, 反応が良好であることが判明した。
さらに、改善の出所と方法を示すための詳細な実験分析を行った。
関連論文リスト
- CTRLStruct: Dialogue Structure Learning for Open-Domain Response
Generation [38.60073402817218]
十分に構造化されたトピックフローは、バックグラウンド情報を活用し、将来のトピックを予測することで、制御可能で説明可能な応答を生成する。
本稿では,話題レベルの対話クラスタを効果的に探索する対話構造学習のための新しいフレームワークを提案する。
2つの人気のあるオープンドメイン対話データセットの実験は、優れた対話モデルと比較して、我々のモデルはより一貫性のある応答を生成できることを示している。
論文 参考訳(メタデータ) (2023-03-02T09:27:11Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Precognition in Task-oriented Dialogue Understanding: Posterior
Regularization by Future Context [8.59600111891194]
本稿では,後続正則化手法を用いて,歴史的・将来の情報を共同でモデル化することを提案する。
これらの間のKL距離を最適化し、トレーニング中にモデルを正規化します。
2つの対話データセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-03-07T09:58:50Z) - Modeling Coreference Relations in Visual Dialog [18.926582410644375]
ダイアログにおけるコア参照関係の発生は、視覚的質問応答よりも難しい課題となる。
教師なしの方法でダイアログにおけるコア参照を解消するモデルの能力を改善する2つのソフト制約を提案する。
論文 参考訳(メタデータ) (2022-03-06T15:22:24Z) - Learning from Perturbations: Diverse and Informative Dialogue Generation
with Inverse Adversarial Training [10.17868476063421]
Inverse Adversarial Training (IAT) アルゴリズムを提案する。
IATはモデルに対話履歴の摂動に敏感であり、従って摂動から学ぶことを奨励する。
提案手法は対話履歴をモデル化し,より多様で一貫した応答を生成する。
論文 参考訳(メタデータ) (2021-05-31T17:28:37Z) - DialogBERT: Discourse-Aware Response Generation via Learning to Recover
and Rank Utterances [18.199473005335093]
本稿では,従来の PLM に基づく対話モデルを強化した対話応答生成モデルである DialogBERT を提案する。
発話間の談話レベルのコヒーレンスを効果的に把握するために,マスク付き発話回帰を含む2つの訓練目標を提案する。
3つのマルチターン会話データセットの実験により、我々のアプローチがベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-12-03T09:06:23Z) - Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired
Data [61.71319905364992]
未ペアデータを利用したオープンドメイン対話モデルのトレーニングのための新しいデータ拡張手法を提案する。
データレベルの蒸留プロセスが最初に提案され、未確認データからポストとレスポンスの両方を検索する拡張ダイアログを構築する。
低品質の対話をフィルタリングするためにランキングモジュールが使用される。
モデルレベルの蒸留プロセスを用いて、高品質なペアデータに基づいて訓練された教師モデルを、強化された対話ペアに蒸留する。
論文 参考訳(メタデータ) (2020-09-20T13:06:38Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。