論文の概要: Inference is All You Need: Self Example Retriever for Cross-domain Dialogue State Tracking with ChatGPT
- arxiv url: http://arxiv.org/abs/2409.06243v1
- Date: Tue, 10 Sep 2024 06:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 18:50:07.727919
- Title: Inference is All You Need: Self Example Retriever for Cross-domain Dialogue State Tracking with ChatGPT
- Title(参考訳): 推論は必要なすべて: ChatGPT を用いたクロスドメイン対話状態追跡のための自己例検索
- Authors: Jihyun Lee, Gary Geunbae Lee,
- Abstract要約: 対話状態追跡におけるドメイン転送にChatGPTを用いた推論と文脈内学習を利用する新しい手法を提案する。
MultiWOZデータセットの実験結果は、ドメイン間の競合性能と有望な一般化を示す。
- 参考スコア(独自算出の注目度): 19.93135583452212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional dialogue state tracking approaches heavily rely on extensive training data and handcrafted features, limiting their scalability and adaptability to new domains. In this paper, we propose a novel method that leverages inference and in-context learning with ChatGPT for domain transfer in dialogue state tracking, without any parameter updates. By guiding ChatGPT's chain of thought, we enable it to retrieve relevant examples and generalize knowledge to accurately infer dialogue states, solely through inference. Experimental results on the MultiWOZ dataset demonstrate competitive performance and promising generalization across domains. Our parameter-free approach offers a scalable and adaptable solution, opening new research directions in domain transfer learning.
- Abstract(参考訳): 従来の対話状態追跡アプローチは、拡張性や新しいドメインへの適応性を制限し、広範なトレーニングデータと手作りの機能に大きく依存している。
本稿では,ChatGPTを用いた推論と文脈内学習を,パラメータ更新を伴わずに,対話状態追跡におけるドメイン転送に活用する手法を提案する。
ChatGPTの思考の連鎖を導くことで、関係する例を検索し、知識を一般化し、単に推論によって、対話状態を正確に推測することができる。
MultiWOZデータセットの実験結果は、ドメイン間の競合性能と有望な一般化を示す。
我々のパラメータフリーアプローチは、スケーラブルで適応可能なソリューションを提供し、ドメイン転送学習における新しい研究方向を開く。
関連論文リスト
- Continual Dialogue State Tracking via Example-Guided Question Answering [48.31523413835549]
そこで本研究では,対話状態の追跡を具体化した質問応答タスクのバンドルとして提案する。
我々のアプローチは、サービス固有の記憶を緩和し、与えられた質問や例を文脈化するためのモデルを教える。
類似の対話状態変化のあるターンを識別するために訓練された検索者によって検索されたコンテキスト内例から学習することで,600万のパラメータしか持たないモデルが大きな向上を達成できることがわかった。
論文 参考訳(メタデータ) (2023-05-23T06:15:43Z) - Few-Shot Dialogue Summarization via Skeleton-Assisted Prompt Transfer in
Prompt Tuning [47.336815771549524]
Skeleton-Assisted Prompt Transferは、対話状態追跡から対話要約へのプロンプト転送を改善する。
本稿では,アノテーションやドメイン知識を必要としない摂動型プローブを用いた新しい手法を提案する。
In-deepth analysis is demonstrated the effective of our method in help a cross-task knowledge transfer in few-shot dialogue summarization。
論文 参考訳(メタデータ) (2023-05-20T03:32:48Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z) - PoE: a Panel of Experts for Generalized Automatic Dialogue Assessment [58.46761798403072]
モデルベース自動対話評価基準(ADEM)は,複数の領域にわたって良好に機能することが期待される。
大きな進歩にもかかわらず、ある領域でうまく機能するADEMは必ずしも他の領域に一般化するとは限らない。
本稿では,共有トランスフォーマーエンコーダと軽量アダプタの集合からなるPanel of Experts (PoE)ネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-18T02:26:50Z) - DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning [7.5700317050237365]
対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-12-06T09:40:15Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable
Fine-tuning for Zero-Shot Dialogue Summarization [29.700113636257544]
本稿では,ドメインの絡み合いを軽減するために,効率的で一般化可能なドメイン指向プレフィックスチューニングモデルを提案する。
我々は、2つのマルチドメイン対話要約データセット上でゼロショット実験を行い、ドメイン適応ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-04-09T02:28:22Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Improving Multi-Party Dialogue Discourse Parsing via Domain Integration [25.805553277418813]
マルチパーティ会話は、対話的なターン間のセマンティックレベルの相関によって暗黙的に組織される。
対話談話分析は,基本談話単位間の係り受け構造と関係の予測に応用できる。
対話談話アノテーションを持つ既存のコーパスは、限られたサンプルサイズを持つ特定のドメインから収集される。
論文 参考訳(メタデータ) (2021-10-09T09:36:22Z) - Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog [70.79442700890843]
本稿では,対象ドメインと各ドメインの関連性を自動的に活用する新しい動的核融合ネットワーク(DF-Net)を提案する。
トレーニングデータが少ないと、平均13.9%の事前最良モデルを上回り、転送可能性を示す。
論文 参考訳(メタデータ) (2020-04-23T08:17:22Z) - Efficient Context and Schema Fusion Networks for Multi-Domain Dialogue
State Tracking [32.36259992245]
対話状態追跡(DST)は、前回の会話のすべてから現在の対話状態を推定することを目的としている。
マルチドメインDSTでは、状態候補の数の増加と対話長の増加により、データ空間の問題が大きな障害となっている。
従来の対話状態(予測)と現在の対話発話をDSTの入力として利用する。
論文 参考訳(メタデータ) (2020-04-07T13:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。