論文の概要: DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning
- arxiv url: http://arxiv.org/abs/2212.02851v2
- Date: Sat, 21 Oct 2023 14:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 14:16:38.648686
- Title: DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning
- Title(参考訳): DiSTRICT: Retriever Driven In-Context Tuningによる対話状態追跡
- Authors: Praveen Venkateswaran, Evelyn Duesterwald, Vatche Isahagian
- Abstract要約: 対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 7.5700317050237365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue State Tracking (DST), a key component of task-oriented conversation
systems, represents user intentions by determining the values of pre-defined
slots in an ongoing dialogue. Existing approaches use hand-crafted templates
and additional slot information to fine-tune and prompt large pre-trained
language models and elicit slot values from the dialogue context. Significant
manual effort and domain knowledge is required to design effective prompts,
limiting the generalizability of these approaches to new domains and tasks. In
this work, we propose DiSTRICT, a generalizable in-context tuning approach for
DST that retrieves highly relevant training examples for a given dialogue to
fine-tune the model without any hand-crafted templates. Experiments with the
MultiWOZ benchmark datasets show that DiSTRICT outperforms existing approaches
in various zero-shot and few-shot settings using a much smaller model, thereby
providing an important advantage for real-world deployments that often have
limited resource availability.
- Abstract(参考訳): タスク指向会話システムの主要なコンポーネントである対話状態追跡(DST)は、進行中の対話において予め定義されたスロットの値を決定することによって、ユーザの意図を表現する。
既存のアプローチでは、手作りのテンプレートと追加のスロット情報を使って微調整を行い、大きな事前学習言語モデルと対話コンテキストからスロット値を抽出する。
効果的なプロンプトを設計するには、重要な手作業とドメイン知識が必要であり、新しいドメインとタスクへのこれらのアプローチの一般化可能性を制限する。
本研究では,手作りのテンプレートを使わずにモデルを微調整するために,与えられた対話に対して高度に関連するトレーニング例を取得するdstのための,汎用的なインコンテキストチューニング手法である districtを提案する。
MultiWOZベンチマークデータセットによる実験によると、DiSTRICTは、はるかに小さなモデルを使用して、さまざまなゼロショットおよび少数ショット設定における既存のアプローチよりも優れており、リソースの可用性が制限された実世界のデプロイメントにおいて重要なアドバンテージを提供する。
関連論文リスト
- DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Schema Graph-Guided Prompt for Multi-Domain Dialogue State Tracking [16.955887768832046]
対話スキーマを組み込んでドメイン固有のプロンプトを学習するグラフベースのフレームワークを提案する。
具体的には、グラフニューラルネットワークによって符号化されたドメイン固有スキーマを事前訓練された言語モデルに組み込む。
本実験は,提案手法が他のマルチドメインDST手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-10T19:00:02Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - A Simple But Effective Approach to n-shot Task-Oriented Dialogue
Augmentation [32.43362825854633]
本稿では,タスク指向対話を完全自動で生成するフレームワークを提案する。
我々のフレームワークはタスク指向対話における各ターンペアは特定の機能を持つという単純な考え方を用いています。
いくつかのドメインの微調整シナリオの大幅な改善を観察します。
論文 参考訳(メタデータ) (2021-02-27T18:55:12Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Non-Autoregressive Dialog State Tracking [122.2328875457225]
非自己回帰的対話状態追跡(NADST)の新しい枠組みを提案する。
NADSTはドメインとスロット間の潜在的な依存関係を分解し、分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化する。
以上の結果から,MultiWOZ 2.1コーパス上の全領域にわたる最先端の接合精度が得られた。
論文 参考訳(メタデータ) (2020-02-19T06:39:26Z) - Domain-Aware Dialogue State Tracker for Multi-Domain Dialogue Systems [2.3859169601259347]
タスク指向対話システムでは、対話状態トラッカー(DST)コンポーネントが対話履歴に基づいて対話の状態を予測する。
我々は、完全にデータ駆動であり、動的サービススキーマを予測するためにモデル化されたドメイン対応対話状態トラッカーを提案する。
論文 参考訳(メタデータ) (2020-01-21T13:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。