論文の概要: Prompt Learning for Domain Adaptation in Task-Oriented Dialogue
- arxiv url: http://arxiv.org/abs/2211.05596v1
- Date: Thu, 10 Nov 2022 14:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:30:20.507594
- Title: Prompt Learning for Domain Adaptation in Task-Oriented Dialogue
- Title(参考訳): タスク指向対話における領域適応のためのプロンプト学習
- Authors: Makesh Narsimhan Sreedhar, Christopher Parisien
- Abstract要約: 標準形式は意図分類の従来の方法に代わる有望な代替手段であることを示す。
標準形式はゼロまたは少数ショット設定で新しい、見えない領域に非常によく一般化することを示す。
- 参考スコア(独自算出の注目度): 0.20305676256390934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversation designers continue to face significant obstacles when creating
production quality task-oriented dialogue systems. The complexity and cost
involved in schema development and data collection is often a major barrier for
such designers, limiting their ability to create natural, user-friendly
experiences. We frame the classification of user intent as the generation of a
canonical form, a lightweight semantic representation using natural language.
We show that canonical forms offer a promising alternative to traditional
methods for intent classification. By tuning soft prompts for a frozen large
language model, we show that canonical forms generalize very well to new,
unseen domains in a zero- or few-shot setting. The method is also
sample-efficient, reducing the complexity and effort of developing new
task-oriented dialogue domains.
- Abstract(参考訳): 会話デザイナーは、生産品質のタスク指向対話システムを作成する際に、重要な障害に直面し続けている。
スキーマ開発とデータ収集に関わる複雑さとコストは、そのような設計者にとって大きな障壁であり、自然なユーザーフレンドリーなエクスペリエンスを作成する能力を制限する。
我々は,ユーザ意図の分類を,自然言語を用いた軽量な意味表現である標準形式の生成とみなす。
標準形式は従来の意図分類の方法に代わる有望な手段であることを示す。
凍結した大言語モデルのソフトプロンプトをチューニングすることにより、標準形式はゼロまたは少数ショット設定で新しい、見えない領域に非常によく一般化することを示す。
この方法はサンプル効率も高く、新しいタスク指向の対話ドメインを開発する複雑さと労力を削減します。
関連論文リスト
- Generative Context Distillation [48.91617280112579]
Generative Context Distillation (GCD) は、ジョイントトレーニングアプローチを採用した軽量なプロンプト内在化手法である。
エージェントベースのアプリケーションシナリオにおいて,このアプローチが複雑なプロンプトを効果的に内部化することを示す。
論文 参考訳(メタデータ) (2024-11-24T17:32:20Z) - A Stack-Propagation Framework for Low-Resource Personalized Dialogue Generation [29.348053519918928]
対話生成および理解パイプラインを学習するための新しいスタックプロパゲーションフレームワークを提案する。
提案するフレームワークは、より小さなパーソナライズされた対話データから学ぶための、スタック化されたエンコーダとデコーダの恩恵を受けることができる。
論文 参考訳(メタデータ) (2024-10-26T13:09:21Z) - Training-Free Consistent Text-to-Image Generation [80.4814768762066]
テキスト・ツー・イメージ・モデルは様々なプロンプトで同じ主題を表現できる。
既存のアプローチは、特定のユーザが提供する主題を記述する新しい単語を教えるためにモデルを微調整する。
本研究では、事前学習モデルの内部アクティベーションを共有することによって、一貫した主題生成を可能にする、トレーニング不要なアプローチであるConsiStoryを提案する。
論文 参考訳(メタデータ) (2024-02-05T18:42:34Z) - IntentDial: An Intent Graph based Multi-Turn Dialogue System with
Reasoning Path Visualization [24.888848712778664]
本稿では,グラフに基づくマルチターン対話システムを提案する。
強化学習を用いて、グラフから意図要素と標準クエリを識別することで、ユーザの意図を識別する。
論文 参考訳(メタデータ) (2023-10-18T09:21:37Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z) - Few-shot Natural Language Generation for Task-Oriented Dialog [113.07438787659859]
FewShotWozは,タスク指向対話システムにおける数ショットの学習設定をシミュレートする最初の NLG ベンチマークである。
我々は, SC-GPTモデルを開発し, その制御可能な生成能力を得るために, 注釈付きNLGコーパスの大規模なセットで事前学習を行った。
FewShotWozとMulti-Domain-WOZデータセットの実験は、提案したSC-GPTが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-27T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。