論文の概要: Counterfactual Data Augmentation via Perspective Transition for
Open-Domain Dialogues
- arxiv url: http://arxiv.org/abs/2210.16838v1
- Date: Sun, 30 Oct 2022 13:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:13:03.441483
- Title: Counterfactual Data Augmentation via Perspective Transition for
Open-Domain Dialogues
- Title(参考訳): オープンドメイン対話における視点遷移による反事実データ拡張
- Authors: Jiao Ou, Jinchao Zhang, Yang Feng, Jie Zhou
- Abstract要約: 本稿では,異なるセマンティクスによる高品質な応答を自動的に拡張するデータ拡張手法を提案する。
実験結果から,データ拡張手法は対話履歴の異なるセマンティクスで高品質な応答を増強し,複数の下流タスクにおいて競合的ベースラインを上回り得ることが示された。
- 参考スコア(独自算出の注目度): 34.78482218571574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The construction of open-domain dialogue systems requires high-quality
dialogue datasets. The dialogue data admits a wide variety of responses for a
given dialogue history, especially responses with different semantics. However,
collecting high-quality such a dataset in most scenarios is labor-intensive and
time-consuming. In this paper, we propose a data augmentation method to
automatically augment high-quality responses with different semantics by
counterfactual inference. Specifically, given an observed dialogue, our
counterfactual generation model first infers semantically different responses
by replacing the observed reply perspective with substituted ones. Furthermore,
our data selection method filters out detrimental augmented responses.
Experimental results show that our data augmentation method can augment
high-quality responses with different semantics for a given dialogue history,
and can outperform competitive baselines on multiple downstream tasks.
- Abstract(参考訳): オープンドメイン対話システムの構築には高品質な対話データセットが必要である。
対話データは、所定の対話履歴、特に異なる意味を持つ応答に対して、多種多様な応答を許容する。
しかし、ほとんどのシナリオで高品質なデータセットの収集は、労働集約的で時間がかかります。
本稿では,異なるセマンティクスによる高品質な応答を自動的に拡張するデータ拡張手法を提案する。
具体的には,まず,観察された応答視点を置換したものに置き換えることで,意味的に異なる応答を推定する。
さらに,データ選択手法は有害な拡張応答をフィルタリングする。
実験結果から,データ拡張手法は対話履歴の異なるセマンティクスで高品質な応答を増強し,複数の下流タスクにおいて競合的ベースラインを上回り得ることが示された。
関連論文リスト
- EM Pre-training for Multi-party Dialogue Response Generation [86.25289241604199]
多人数対話では、応答発話の宛先を生成前に指定する必要がある。
本稿では,アドレナラベルを生成するための期待ステップを反復的に実行する期待最大化(EM)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:41Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z) - Learning towards Selective Data Augmentation for Dialogue Generation [52.540330534137794]
すべての事例が増補作業に有益である訳ではなく、増補に適した事例は以下の2つの属性に従うべきであると我々は主張する。
応答生成タスクに対してSDA(Selective Data Augmentation framework)を提案する。
論文 参考訳(メタデータ) (2023-03-17T01:26:39Z) - Learning from Perturbations: Diverse and Informative Dialogue Generation
with Inverse Adversarial Training [10.17868476063421]
Inverse Adversarial Training (IAT) アルゴリズムを提案する。
IATはモデルに対話履歴の摂動に敏感であり、従って摂動から学ぶことを奨励する。
提案手法は対話履歴をモデル化し,より多様で一貫した応答を生成する。
論文 参考訳(メタデータ) (2021-05-31T17:28:37Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired
Data [61.71319905364992]
未ペアデータを利用したオープンドメイン対話モデルのトレーニングのための新しいデータ拡張手法を提案する。
データレベルの蒸留プロセスが最初に提案され、未確認データからポストとレスポンスの両方を検索する拡張ダイアログを構築する。
低品質の対話をフィルタリングするためにランキングモジュールが使用される。
モデルレベルの蒸留プロセスを用いて、高品質なペアデータに基づいて訓練された教師モデルを、強化された対話ペアに蒸留する。
論文 参考訳(メタデータ) (2020-09-20T13:06:38Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Diversifying Dialogue Generation with Non-Conversational Text [38.03510529185192]
非会話的テキストを活用することで対話生成を多様化する新しい視点を提案する。
我々は、フォーラムコメント、イディオム、本スニペットを含む複数の情報源から、大規模な非会話コーパスを収集する。
得られたモデルは、2つの会話データセット上でテストされ、コンテキストとの関連性を犠牲にすることなく、はるかに多様な応答を生成することが示されている。
論文 参考訳(メタデータ) (2020-05-09T02:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。