論文の概要: A Simple and Efficient Multi-Task Learning Approach for Conditioned
Dialogue Generation
- arxiv url: http://arxiv.org/abs/2010.11140v2
- Date: Sat, 24 Apr 2021 14:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:49:31.814193
- Title: A Simple and Efficient Multi-Task Learning Approach for Conditioned
Dialogue Generation
- Title(参考訳): 条件付き対話生成のためのシンプルで効率的なマルチタスク学習手法
- Authors: Yan Zeng and Jian-Yun Nie
- Abstract要約: 条件付き対話生成はラベル付き応答の不足に悩まされる。
ラベル付き対話とテキストデータの両方を活用するマルチタスク学習手法を提案する。
- 参考スコア(独自算出の注目度): 23.828348485513043
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conditioned dialogue generation suffers from the scarcity of labeled
responses. In this work, we exploit labeled non-dialogue text data related to
the condition, which are much easier to collect. We propose a multi-task
learning approach to leverage both labeled dialogue and text data. The 3 tasks
jointly optimize the same pre-trained Transformer -- conditioned dialogue
generation task on the labeled dialogue data, conditioned language encoding
task and conditioned language generation task on the labeled text data.
Experimental results show that our approach outperforms the state-of-the-art
models by leveraging the labeled texts, and it also obtains larger improvement
in performance comparing to the previous methods to leverage text data.
- Abstract(参考訳): 条件付き対話生成はラベル付き応答の不足に苦しむ。
本研究では,この条件に関連するラベル付き非ダイアログテキストデータを活用し,より収集が容易である。
ラベル付き対話とテキストデータの両方を活用するマルチタスク学習手法を提案する。
3つのタスクは、ラベル付き対話データ上の条件付き対話生成タスクと、条件付き言語符号化タスクと、ラベル付きテキストデータ上の条件付き言語生成タスクとを共同で最適化する。
実験の結果,提案手法はラベル付きテキストを活用し,最先端モデルよりも優れており,また,従来の手法と比較してテキストデータを活用する性能も向上していることがわかった。
関連論文リスト
- DFlow: Diverse Dialogue Flow Simulation with Large Language Models [16.209331014315463]
本稿では,合成対話の多様性を高めるために,新たなデータ拡張手法を提案する。
我々は、15の異なる領域に3,886の対話フローからなるタスク指向対話データセットを生成する。
論文 参考訳(メタデータ) (2024-10-18T20:35:28Z) - Weakly Supervised Data Augmentation Through Prompting for Dialogue
Understanding [103.94325597273316]
本稿では,弱教師付きフィルタを適用して拡張品質を反復する手法を提案する。
我々は、デイリーダイアログにおける感情と行動の分類タスクと、Facebook Multilingual Task-Oriented Dialogueにおける意図の分類タスクについて評価した。
特にDailyDialogでは、真理データの10%を使用して、100%のデータを使用する現在の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2022-10-25T17:01:30Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - Curriculum-Based Self-Training Makes Better Few-Shot Learners for
Data-to-Text Generation [56.98033565736974]
テキスト生成の困難さによって決定される並べ替え順序でラベルのないデータを活用するために,カリキュラムベースの自己学習(CBST)を提案する。
提案手法は、微調整およびタスク適応型事前学習法より優れており、データ・テキスト・ジェネレーションのわずかな設定で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-06T16:11:58Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Conditioned Text Generation with Transfer for Closed-Domain Dialogue
Systems [65.48663492703557]
条件付き変分オートエンコーダを用いて,意図特化文の生成を最適に学習し,制御する方法を示す。
クエリ転送と呼ばれる新しいプロトコルを導入し、大規模で遅延のないデータセットを活用できるようにします。
論文 参考訳(メタデータ) (2020-11-03T14:06:10Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。