論文の概要: SGP-TOD: Building Task Bots Effortlessly via Schema-Guided LLM Prompting
- arxiv url: http://arxiv.org/abs/2305.09067v1
- Date: Mon, 15 May 2023 23:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 16:52:58.063442
- Title: SGP-TOD: Building Task Bots Effortlessly via Schema-Guided LLM Prompting
- Title(参考訳): SGP-TOD: Schema-Guided LLM Prompting によるタスクボットの構築
- Authors: Xiaoying Zhang, Baolin Peng, Kun Li, Jingyan Zhou, Helen Meng
- Abstract要約: 大規模言語モデル(LLM)は、会話のエンゲージメントにおいて例外的な熟練度を示した。
SGP-TOD,Guided Promptingを導入し,タスク指向のダイアログシステムを構築する。
SGP-TODは、ユーザと対話するためのLDMと、ダイアログ状態追跡を行うDSTプロンプタと、提供されたダイアログポリシーに準拠する適切な応答を引き出すポリシープロンプタの3つのコンポーネントから構成される。
- 参考スコア(独自算出の注目度): 43.02058641501056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building end-to-end task bots and maintaining their integration with new
functionalities using minimal human efforts is a long-standing challenge in
dialog research. Recently large language models (LLMs) have demonstrated
exceptional proficiency in conversational engagement and adherence to
instructions across various downstream tasks. In this work, we introduce
SGP-TOD, Schema-Guided Prompting for building Task-Oriented Dialog systems
effortlessly based on LLMs. Utilizing the symbolic knowledge -- task schema, we
instruct fixed LLMs to generate appropriate responses on novel tasks,
circumventing the need for training data. Specifically, SGP-TOD comprises three
components: a LLM for engaging with users, a DST Prompter to aid the LLM with
dialog state tracking, which is then used to retrieve database items, and a
Policy Prompter to elicit proper responses adhering to the provided dialog
policy. Experimental results on Multiwoz, RADDLE and STAR datasets show that
our training-free strategy SGP-TOD, without any task-specific data, yields
state-of-the-art (SOTA) zero-shot performance, greatly surpasses the few-shot
approaches. In a domain-extension setting, SGP-TOD aptly adapts to new
functionalities by merely adding supplementary schema rules. We make our code
and data publicly available.
- Abstract(参考訳): エンド・ツー・エンドのタスクボットの構築と、最小限の人的努力による新機能の統合は、ダイアログ研究における長年の課題である。
近年の大規模言語モデル (LLM) は、様々な下流タスクにおける会話のエンゲージメントと命令の順守において、例外的な熟練度を示している。
本稿では,llmsに基づくタスク指向ダイアログシステム構築のためのスキーマ誘導プロンプトであるsgp-todを導入する。
シンボリック知識(タスクスキーマ)を利用することで、固定されたLCMに新しいタスクに対する適切な応答を生成するように指示し、トレーニングデータの必要性を回避する。
具体的には、ユーザと対話するためのLDMと、データベースアイテムを検索するダイアログ状態追跡を行うDSTプロンプタと、提供されたダイアログポリシーに準拠する適切な応答を引き出すポリシープロンプタの3つのコンポーネントで構成される。
Multiwoz, RADDLE, STARデータセットによる実験結果から, SGP-TODはタスク固有のデータを持たず, 最先端(SOTA)ゼロショット性能を示し, 数発のアプローチを大幅に上回ることがわかった。
ドメイン拡張設定では、SGP-TODは補足スキーマルールを追加するだけで、新しい機能に適応する。
コードとデータを公開しています。
関連論文リスト
- Synergizing In-context Learning with Hints for End-to-end Task-oriented Dialog Systems [25.14460456391397]
LLM(Large Language Model)ベースのTODシステムは、コンテキスト内例を通してタスクを学習する能力のため、限られたデータでも優れている。
低データ設定におけるアライメントを改善するために,タスク固有のヒントでLLMを相乗化するSyncTODを提案する。
ChatGPTでは、SyncTODは低データ設定でLLMベースのベースラインやSoTAモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-24T14:13:54Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - Symbolic Planning and Code Generation for Grounded Dialogue [78.48668501764385]
大規模言語モデル(LLM)は、テキストとコードの両方の処理と生成に優れる。
本稿では,LLMをシンボリックプランナと接地コード実行で構成することで,欠点に対処する,モジュール型で解釈可能な接地対話システムを提案する。
我々のシステムは、人間の評価におけるタスク成功率を最も困難な環境で56%から69%に改善するなど、従来の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-26T04:22:23Z) - InstructTODS: Large Language Models for End-to-End Task-Oriented
Dialogue Systems [60.53276524369498]
大規模言語モデル(LLM)は自然言語処理(NLP)における多様なタスクに使用されている。
InstructTODSは、ゼロショットのタスク指向対話システムのための新しいフレームワークである。
InstructTODSは、ユーザの意図を動的クエリにシームレスに翻訳するプロキシの信念状態を生成する。
論文 参考訳(メタデータ) (2023-10-13T06:36:26Z) - Task-Optimized Adapters for an End-to-End Task-Oriented Dialogue System [0.0]
本稿では,タスク毎に個別に学習し,事前学習したネットワークの固定層に少数のパラメータを追加するタスク・ド・アダプタを用いたエンドツーエンドTODシステムを提案する。
提案手法はモデルに依存しない手法であり,プロンプトを使わずに入力データのみをプロンプトチューニングする必要がない。
論文 参考訳(メタデータ) (2023-05-04T00:17:49Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。