論文の概要: A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation
- arxiv url: http://arxiv.org/abs/2204.09867v1
- Date: Thu, 21 Apr 2022 03:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-23 00:29:10.653974
- Title: A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation
- Title(参考訳): 対話生成のためのモデル非依存データ操作法
- Authors: Yu Cao, Wei Bi, Meng Fang, Shuming Shi and Dacheng Tao
- Abstract要約: 現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
- 参考スコア(独自算出の注目度): 107.82729587882397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Towards building intelligent dialogue agents, there has been a growing
interest in introducing explicit personas in generation models. However, with
limited persona-based dialogue data at hand, it may be difficult to train a
dialogue generation model well. We point out that the data challenges of this
generation task lie in two aspects: first, it is expensive to scale up current
persona-based dialogue datasets; second, each data sample in this task is more
complex to learn with than conventional dialogue data. To alleviate the above
data issues, we propose a data manipulation method, which is model-agnostic to
be packed with any persona-based dialogue generation model to improve its
performance. The original training samples will first be distilled and thus
expected to be fitted more easily. Next, we show various effective ways that
can diversify such easier distilled data. A given base model will then be
trained via the constructed data curricula, i.e. first on augmented distilled
samples and then on original ones. Experiments illustrate the superiority of
our method with two strong base dialogue models (Transformer encoder-decoder
and GPT2).
- Abstract(参考訳): インテリジェントな対話エージェントの構築に向けて、世代モデルに明示的なペルソナを導入することへの関心が高まっている。
しかし,手持ちの対話データが限られているため,対話生成モデルを十分に訓練することは困難である。
第1に、現在のペルソナベースの対話データセットのスケールアップは高価であり、第2に、このタスクに含まれる各データサンプルは、従来の対話データよりも学習が複雑である。
上記の課題を解決するために,任意のペルソナベースの対話生成モデルに同梱するモデルに依存しないデータ操作手法を提案し,その性能を向上する。
元のトレーニングサンプルは最初に蒸留され、より簡単に取り付けられることが期待されている。
次に、より簡単な蒸留データを多様化する様々な効果的な方法を示す。
与えられたベースモデルは、構築されたデータキュリキュラ、すなわち最初に拡張蒸留されたサンプル、そして元のモデルを通じてトレーニングされる。
実験では、2つの強力なベースダイアログモデル(Transformer encoder-decoder と GPT2)による手法の優位性を示す。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - q2d: Turning Questions into Dialogs to Teach Models How to Search [11.421839177607147]
質問から情報検索ダイアログを生成する自動データ生成パイプラインであるq2dを提案する。
検索クエリによる人書きダイアログに依存する従来の手法とは異なり,提案手法では,より優れた制御とスケールで,クエリベースの基底ダイアログを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-04-27T16:39:15Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - Self-augmented Data Selection for Few-shot Dialogue Generation [18.794770678708637]
我々は,MR-to-Text生成問題に対処するために,自己学習フレームワークを採用する。
我々は,我々の生成モデルが最も不確実なデータを選択するための新しいデータ選択戦略を提案する。
論文 参考訳(メタデータ) (2022-05-19T16:25:50Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Dual Task Framework for Debiasing Persona-grounded Dialogue Dataset [17.403065663306567]
我々は、ペルソナ条件の対話エージェントを改善するために、データ中心のアプローチを導入する。
具体的には,2つのタスクの原始的双対構造を活用することで,対話データセット/エージェントを改善するための関連するペルソナを強化する。
Persona-Chat の実験により,本手法は訓練済みの LM よりも精度が 11.7 ポイント向上していることが示された。
論文 参考訳(メタデータ) (2022-02-11T04:08:46Z) - Data-Efficient Methods for Dialogue Systems [4.061135251278187]
会話型ユーザインタフェース(CUI)は、SiriやAlexaといったコンシューマにフォーカスした製品において、日常的に広く普及している。
ディープラーニングは、対話システムにおける最近のブレークスルーの根底にあるが、専門家によって注釈付けされることが多い、非常に大量のトレーニングデータを必要とする。
本稿では,最小限のデータから頑健な対話システムを訓練するための一連の手法を紹介する。
論文 参考訳(メタデータ) (2020-12-05T02:51:09Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z) - Dialogue Distillation: Open-Domain Dialogue Augmentation Using Unpaired
Data [61.71319905364992]
未ペアデータを利用したオープンドメイン対話モデルのトレーニングのための新しいデータ拡張手法を提案する。
データレベルの蒸留プロセスが最初に提案され、未確認データからポストとレスポンスの両方を検索する拡張ダイアログを構築する。
低品質の対話をフィルタリングするためにランキングモジュールが使用される。
モデルレベルの蒸留プロセスを用いて、高品質なペアデータに基づいて訓練された教師モデルを、強化された対話ペアに蒸留する。
論文 参考訳(メタデータ) (2020-09-20T13:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。