論文の概要: In-Context Learning for Few-Shot Dialogue State Tracking
- arxiv url: http://arxiv.org/abs/2203.08568v1
- Date: Wed, 16 Mar 2022 11:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 21:25:52.997637
- Title: In-Context Learning for Few-Shot Dialogue State Tracking
- Title(参考訳): Few-Shot対話状態追跡のための文脈学習
- Authors: Yushi Hu, Chia-Hsuan Lee, Tianbao Xie, Tao Yu, Noah A. Smith, Mari
Ostendorf
- Abstract要約: In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
- 参考スコア(独自算出の注目度): 55.91832381893181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collecting and annotating task-oriented dialogues is time-consuming and
costly. Thus, few-shot learning for dialogue tasks presents an exciting
opportunity. In this work, we propose an in-context (IC) learning framework for
few-shot dialogue state tracking (DST), where a large pre-trained language
model (LM) takes a test instance and a few annotated examples as input, and
directly decodes the dialogue states without any parameter updates. This makes
the LM more flexible and scalable compared to prior few-shot DST work when
adapting to new domains and scenarios. We study ways to formulate dialogue
context into prompts for LMs and propose an efficient approach to retrieve
dialogues as exemplars given a test instance and a selection pool of few-shot
examples. To better leverage the pre-trained LMs, we also reformulate DST into
a text-to-SQL problem. Empirical results on MultiWOZ 2.1 and 2.4 show that our
method IC-DST outperforms previous fine-tuned state-of-the-art models in
few-shot settings.
- Abstract(参考訳): タスク指向対話の収集と注釈付けには時間と費用がかかります。
このように、対話タスクのための数発の学習は、エキサイティングな機会となる。
本研究では,大規模な事前学習言語モデル(LM)がテストインスタンスといくつかの注釈付きサンプルを入力として取り出し,パラメータを更新せずに直接対話状態を復号する,数ショット対話状態追跡(DST)のためのコンテキスト内学習フレームワークを提案する。
これにより、新しいドメインやシナリオに適応する際の以前のdstよりも、lmの柔軟性と拡張性が向上する。
対話コンテキストをlmsのプロンプトとして定式化する方法を検討し,テストインスタンスと少数のサンプルの選択プールを与えられた例として,対話を検索するための効率的な手法を提案する。
また,事前学習したLMをよりよく活用するために,DSTをテキストからSQLへ変換する。
MultiWOZ 2.1 と 2.4 の実証実験の結果、IC-DST 法は、過去の微調整された最先端モデルを数ショット設定で上回っていることがわかった。
関連論文リスト
- Diverse Retrieval-Augmented In-Context Learning for Dialogue State
Tracking [3.8073142980733]
RefPyDSTを提案する。これは対話状態追跡のための文脈内学習に3つの進歩をもたらした技術である。
まず、DSTをPythonプログラミングタスクとして定式化し、Pythonの変数参照として言語コア参照を明示的にモデル化する。
第2に、コンテキスト内学習は文脈の例に大きく依存するため、性能向上のための多様な事例を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T03:15:52Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Dialogue Summaries as Dialogue States (DS2), Template-Guided
Summarization for Few-shot Dialogue State Tracking [16.07100713414678]
DST(Few-shot dialogue state tracking)は、この問題に対する現実的な解決策である。
本稿では,対話状態追跡を対話要約問題として再検討する。
論文 参考訳(メタデータ) (2022-03-03T07:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。