論文の概要: Controllable Dialogue Simulation with In-Context Learning
- arxiv url: http://arxiv.org/abs/2210.04185v1
- Date: Sun, 9 Oct 2022 06:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:30:36.064260
- Title: Controllable Dialogue Simulation with In-Context Learning
- Title(参考訳): 文脈内学習による制御可能な対話シミュレーション
- Authors: Zekun Li, Wenhu Chen, Shiyang Li, Hong Wang, Jing Qian, Xifeng Yan
- Abstract要約: そこで本研究では,言語モデルに基づく対話シミュレーション手法を提案する。
textscDialogicは、デモ用のテキスト中の例を自動的に選択し、GPT-3に新しい対話とアノテーションを制御可能な方法で生成するよう促す。
- 参考スコア(独自算出の注目度): 39.04491297557292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building dialogue systems requires a large corpus of annotated dialogues.
Such datasets are usually created via crowdsourcing, which is expensive and
time-consuming. In this paper, we propose a novel method for dialogue
simulation based on language model in-context learning, dubbed as
\textsc{Dialogic}. Seeded with a few annotated dialogues, \textsc{Dialogic}
automatically selects in-context examples for demonstration and prompts GPT-3
to generate new dialogues and their annotations in a controllable way.
Leveraging the strong in-context learning ability of GPT-3, our method can be
used to rapidly expand a small set of dialogue data without requiring
\textit{human involvement} or \textit{parameter update}, and is thus much more
cost-efficient and time-saving than crowdsourcing. Experimental results on the
MultiWOZ dataset demonstrate that training a model on the simulated dialogues
leads to even better performance than using the same amount of human-generated
dialogues in the low-resource settings, with as few as 85 dialogues as the seed
data. Human evaluation results also show that our simulated dialogues has high
language fluency and annotation accuracy. The code and data are available at
\href{https://github.com/Leezekun/dialogic}{https://github.com/Leezekun/dialogic}.
- Abstract(参考訳): 対話システムを構築するには、注釈付き対話の大きなコーパスが必要である。
このようなデータセットは通常、クラウドソーシングを通じて作成される。
本稿では,言語モデルに基づく対話シミュレーションの新たな手法を提案し,これを「textsc{Dialogic}」と呼ぶ。
いくつかの注釈付きダイアログを使って、 \textsc{Dialogic} はデモ用のインコンテキストの例を自動的に選択し、GPT-3 に新しいダイアログとアノテーションを制御可能な方法で生成するよう促す。
gpt-3の強力なコンテキスト内学習能力を活用することで、この手法は、小さな対話データセットを、 \textit{human involvement} や \textit{parameter update} を必要とせずに迅速に拡張することができる。
また,MultiWOZデータセットを用いた実験結果から,シミュレーションダイアログ上でのモデルのトレーニングは,低リソース環境での人間生成ダイアログの量と同じで,シードデータと85のダイアログを使用すれば,さらに優れたパフォーマンスが得られることが示された。
また,人間の評価結果から,シミュレートされた対話は,高い言語流動性とアノテーションの正確性を示す。
コードとデータは \href{https://github.com/leezekun/dialogic}{https://github.com/leezekun/dialogic} で入手できる。
関連論文リスト
- Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Prompting for a conversation: How to control a dialog model? [9.268682116424518]
ダイアログモデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。
前者を達成するために使用されるデータセットには後者と互換性のない言語が含まれているため、事前訓練されたダイアログモデルは、より小さなキュレートされたデータセットで微調整される。
本稿では,上記のトレードオフを緩和できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-09-22T14:59:55Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension [48.483910831143724]
対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
論文 参考訳(メタデータ) (2022-03-19T05:20:25Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Structure Extraction in Task-Oriented Dialogues with Slot Clustering [94.27806592467537]
タスク指向対話では、対話構造はしばしば対話状態間の遷移グラフと見なされている。
本稿では,タスク指向対話における構造抽出のための簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T20:18:12Z) - DG2: Data Augmentation Through Document Grounded Dialogue Generation [41.81030088619399]
生成対話モデルを用いて文書に基づく自動データ拡張手法を提案する。
元のデータセットを補うと、従来のデータ拡張手法よりも大幅に改善される。
論文 参考訳(メタデータ) (2021-12-15T18:50:14Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Dialog Simulation with Realistic Variations for Training Goal-Oriented
Conversational Systems [14.206866126142002]
ゴール指向のダイアログシステムにより、ユーザーは映画に関する情報をリクエストしたり、チケットを予約したりといった特定の目標を達成することができる。
本稿では,注釈付きダイアログとダイアログスキーマから,注釈付きダイアログの大規模なコーパスを自動生成する手法を提案する。
ベースラインダイアログ生成手法と比較して,ホールドアウトテストセットの50%の相対精度を実現した。
論文 参考訳(メタデータ) (2020-11-16T19:39:15Z) - A Few-Shot Semantic Parser for Wizard-of-Oz Dialogues with the Precise
ThingTalk Representation [5.56536459714557]
ウィザード・オブ・オズ(WOZ)会話のための効果的な意味論を構築しようとする以前の試みは、高品質で手動の注釈付きトレーニングセットを取得するのが困難であった。
本稿では,WOZ会話における正確な対話状態を予測できる新しい対話表現とサンプル効率の手法を提案する。
論文 参考訳(メタデータ) (2020-09-16T22:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。