論文の概要: Prompting for a conversation: How to control a dialog model?
- arxiv url: http://arxiv.org/abs/2209.11068v1
- Date: Thu, 22 Sep 2022 14:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:25:03.354652
- Title: Prompting for a conversation: How to control a dialog model?
- Title(参考訳): 会話のプロンプト:どのようにダイアログモデルを制御するか?
- Authors: Josef Valvoda, Yimai Fang, David Vandyke
- Abstract要約: ダイアログモデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。
前者を達成するために使用されるデータセットには後者と互換性のない言語が含まれているため、事前訓練されたダイアログモデルは、より小さなキュレートされたデータセットで微調整される。
本稿では,上記のトレードオフを緩和できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 9.268682116424518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialog modelling faces a difficult trade-off. Models are trained on a large
amount of text, yet their responses need to be limited to a desired scope and
style of a dialog agent. Because the datasets used to achieve the former
contain language that is not compatible with the latter, pre-trained dialog
models are fine-tuned on smaller curated datasets. However, the fine-tuning
process robs them of the ability to produce diverse responses, eventually
reducing them to dull conversation partners. In this paper we investigate if
prompting can mitigate the above trade-off. Specifically, we experiment with
conditioning the prompt on the query, rather than training a single prompt for
all queries. By following the intuition that freezing the pre-trained language
model will conserve its expressivity, we find that compared to fine-tuning,
prompting can achieve a higher BLEU score and substantially improve the
diversity and novelty of the responses.
- Abstract(参考訳): ダイアログモデリングは難しいトレードオフに直面します。
モデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。
前者を達成するために使用されるデータセットは後者と互換性がないため、事前学習されたダイアログモデルはより小さなキュレートされたデータセットで微調整される。
しかし、微調整のプロセスは、多様な応答を発生させる能力を損なうため、最終的には会話相手を退屈にしてしまう。
本稿では,上記のトレードオフを緩和できるかどうかを検討する。
具体的には、すべてのクエリに対して単一のプロンプトをトレーニングするのではなく、クエリにプロンプトを条件付けする実験を行う。
事前学習した言語モデルの凍結が表現性を維持するという直感に従えば、微調整に比べて、より高いBLEUスコアを達成でき、応答の多様性と新規性を大幅に向上させることができることが分かる。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - AutoReply: Detecting Nonsense in Dialogue Introspectively with
Discriminative Replies [71.62832112141913]
対話モデルは、不適切なメッセージを示す応答の確率を計算し、内観的に自分のメッセージの誤りを検出することができることを示す。
まず、手作りの返信は外交と同じくらい複雑なアプリケーションにおけるナンセンスを検出するタスクに有効であることを示す。
AutoReplyの生成した応答は手作りの応答よりも優れており、慎重に調整された大規模な教師付きモデルと同等に動作することがわかった。
論文 参考訳(メタデータ) (2022-11-22T22:31:34Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - Adapting Task-Oriented Dialogue Models for Email Conversations [4.45709593827781]
本稿では,対話モデルの最新開発を長文会話に適用できる効果的な伝達学習フレームワーク(EMToD)を提案する。
提案するEMToDフレームワークは,事前学習した言語モデルに対する意図検出性能を45%向上し,タスク指向の電子メール会話において,事前学習した対話モデルに対する意図検出性能を30%向上することを示す。
論文 参考訳(メタデータ) (2022-08-19T16:41:34Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - The Adapter-Bot: All-In-One Controllable Conversational Model [66.48164003532484]
本稿では、DialGPTなどの固定バックボーンモデルを用いて、異なるアダプタを介してオンデマンド対話スキルをトリガーする対話モデルを提案する。
スキルに応じて、モデルはテキスト、テーブル、強調応答などの複数の知識タイプを処理できる。
我々は,既存の会話モデルと比較し,自動評価を用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2020-08-28T10:59:31Z) - Dialog without Dialog Data: Learning Visual Dialog Agents from VQA Data [75.7372052716556]
『ダイアログなしダイアログ』ではエージェントが言語レベルの監督なしに新しいタスクに適応できるダイアログモデルを開発する必要がある。
意図と言語を分解することにより、新しいタスクを微調整した後の言語的ドリフトを最小限に抑える。
論文 参考訳(メタデータ) (2020-07-24T19:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。