論文の概要: Choice Fusion as Knowledge for Zero-Shot Dialogue State Tracking
- arxiv url: http://arxiv.org/abs/2302.13013v1
- Date: Sat, 25 Feb 2023 07:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:24:35.521273
- Title: Choice Fusion as Knowledge for Zero-Shot Dialogue State Tracking
- Title(参考訳): ゼロショット対話状態追跡のための知識としての選択融合
- Authors: Ruolin Su, Jingfeng Yang, Ting-Wei Wu, Biing-Hwang Juang
- Abstract要約: ゼロショットの対話状態トラッキング(DST)は、望ましいドメインをトレーニングすることなく、タスク指向の対話におけるユーザの要求を追跡する。
ドメインに依存しないQAデータセットに基づいて訓練し、ゼロショット対話状態生成のための知識としてスロット値の候補選択を直接利用するCoFunDSTを提案する。
提案手法は,MultiWOZ 2.1 における既存のゼロショット DST アプローチと比較して,精度が向上する。
- 参考スコア(独自算出の注目度): 5.691339955497443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the demanding need for deploying dialogue systems in new domains with
less cost, zero-shot dialogue state tracking (DST), which tracks user's
requirements in task-oriented dialogues without training on desired domains,
draws attention increasingly. Although prior works have leveraged
question-answering (QA) data to reduce the need for in-domain training in DST,
they fail to explicitly model knowledge transfer and fusion for tracking
dialogue states. To address this issue, we propose CoFunDST, which is trained
on domain-agnostic QA datasets and directly uses candidate choices of
slot-values as knowledge for zero-shot dialogue-state generation, based on a T5
pre-trained language model. Specifically, CoFunDST selects highly-relevant
choices to the reference context and fuses them to initialize the decoder to
constrain the model outputs. Our experimental results show that our proposed
model achieves outperformed joint goal accuracy compared to existing zero-shot
DST approaches in most domains on the MultiWOZ 2.1. Extensive analyses
demonstrate the effectiveness of our proposed approach for improving zero-shot
DST learning from QA.
- Abstract(参考訳): 低コストで新しいドメインに対話システムをデプロイする必要性が高まっているため、望まれるドメインをトレーニングすることなくタスク指向の対話におけるユーザの要求を追跡するゼロショット対話状態追跡(DST)が注目を集めている。
従来の研究では、DSTにおけるドメイン内トレーニングの必要性を減らすためにQAデータを活用していたが、対話状態を追跡するための知識伝達と融合を明示的にモデル化することはできなかった。
この問題を解決するために,ドメインに依存しないQAデータセットに基づいて訓練されたCoFunDSTを提案し,T5事前学習言語モデルに基づくゼロショット対話状態生成の知識としてスロット値の候補選択を直接利用する。
具体的には、CoFunDSTは参照コンテキストに関連性の高い選択を選択し、デコーダを初期化してモデル出力を制限する。
実験の結果,提案モデルはマルチウォズ2.1のほとんどの領域において既存のゼロショットdstアプローチよりも精度が優れることがわかった。
広範分析により,QAからゼロショットDST学習を改善するための提案手法の有効性が示された。
関連論文リスト
- A Zero-Shot Open-Vocabulary Pipeline for Dialogue Understanding [0.0]
ドメイン分類と状態追跡(DST)をひとつのパイプラインに統合するゼロショットオープン語彙システムを提案する。
我々のアプローチには、より能力の低いモデルに対する質問応答タスクとしてDSTを再構成し、より適応可能なモデルに自己修正プロンプトを採用することが含まれる。
論文 参考訳(メタデータ) (2024-09-24T08:33:41Z) - Dialogue State Distillation Network with Inter-Slot Contrastive Learning
for Dialogue State Tracking [25.722458066685046]
対話状態追跡(DST)は,対話履歴からユーザの意図を抽出することを目的としている。
現在、既存のほとんどのアプローチはエラーの伝播に悩まされており、関連する情報を動的に選択することはできない。
本稿では,従来の対話状態の関連情報を活用するために,対話状態蒸留ネットワーク(DSDN)を提案する。
論文 参考訳(メタデータ) (2023-02-16T11:05:24Z) - DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning [7.5700317050237365]
対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-12-06T09:40:15Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - Zero-Shot Dialogue State Tracking via Cross-Task Transfer [69.70718906395182]
我々は,ゼロショット対話状態追跡タスクに対して,一般質問応答(QA)コーパスからテキストクロスタスク知識を転送することを提案する。
具体的には,抽出QAと複数選択QAをシームレスに組み合わせた転送可能な生成QAモデルであるTransferQAを提案する。
さらに,否定的質問サンプリングと文脈トランケーションという,解決不可能な質問を構築するための2つの効果的な方法を紹介した。
論文 参考訳(メタデータ) (2021-09-10T03:57:56Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Improving Limited Labeled Dialogue State Tracking with Self-Supervision [91.68515201803986]
既存の対話状態追跡(DST)モデルには多くのラベル付きデータが必要である。
本稿では,潜在的一貫性の維持と対話行動のモデル化という,自己指導型の2つの目的について検討する。
提案する自己教師型信号は,1%のラベル付きデータのみを使用する場合,関節ゴール精度を8.95%向上させることができる。
論文 参考訳(メタデータ) (2020-10-26T21:57:42Z) - Non-Autoregressive Dialog State Tracking [122.2328875457225]
非自己回帰的対話状態追跡(NADST)の新しい枠組みを提案する。
NADSTはドメインとスロット間の潜在的な依存関係を分解し、分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化する。
以上の結果から,MultiWOZ 2.1コーパス上の全領域にわたる最先端の接合精度が得られた。
論文 参考訳(メタデータ) (2020-02-19T06:39:26Z) - Domain-Aware Dialogue State Tracker for Multi-Domain Dialogue Systems [2.3859169601259347]
タスク指向対話システムでは、対話状態トラッカー(DST)コンポーネントが対話履歴に基づいて対話の状態を予測する。
我々は、完全にデータ駆動であり、動的サービススキーマを予測するためにモデル化されたドメイン対応対話状態トラッカーを提案する。
論文 参考訳(メタデータ) (2020-01-21T13:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。