論文の概要: SGD-QA: Fast Schema-Guided Dialogue State Tracking for Unseen Services
- arxiv url: http://arxiv.org/abs/2105.08049v1
- Date: Mon, 17 May 2021 17:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 16:44:53.478051
- Title: SGD-QA: Fast Schema-Guided Dialogue State Tracking for Unseen Services
- Title(参考訳): SGD-QA: 見えないサービスのための高速スキーマ誘導対話状態追跡
- Authors: Yang Zhang, Vahid Noroozi, Evelina Bakhturina, Boris Ginsburg
- Abstract要約: 質問応答アプローチに基づくスキーマガイドによる対話状態追跡モデルであるSGD-QAを提案する。
提案するマルチパスモデルは、ドメイン情報と対話発話の間で単一のエンコーダを共有する。
このモデルでは、シングルパスベースラインモデルと比較して少なくとも1.6倍の性能が向上している。
- 参考スコア(独自算出の注目度): 15.21976869687864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue state tracking is an essential part of goal-oriented dialogue
systems, while most of these state tracking models often fail to handle unseen
services. In this paper, we propose SGD-QA, a simple and extensible model for
schema-guided dialogue state tracking based on a question answering approach.
The proposed multi-pass model shares a single encoder between the domain
information and dialogue utterance. The domain's description represents the
query and the dialogue utterance serves as the context. The model improves
performance on unseen services by at least 1.6x compared to single-pass
baseline models on the SGD dataset. SGD-QA shows competitive performance
compared to state-of-the-art multi-pass models while being significantly more
efficient in terms of memory consumption and training performance. We provide a
thorough discussion on the model with ablation study and error analysis.
- Abstract(参考訳): 対話状態追跡は、目標指向の対話システムにおいて不可欠な部分であるが、ほとんどの状態追跡モデルは、目に見えないサービスを扱うのに失敗する。
本稿では,SGD-QAを提案する。SGD-QAは,質問応答アプローチに基づく,スキーマ誘導型対話状態追跡のためのシンプルで拡張可能なモデルである。
提案するマルチパスモデルは、ドメイン情報と対話発話の間で単一のエンコーダを共有する。
ドメインの記述はクエリを表し、対話の発話はコンテキストとして機能します。
このモデルは、SGDデータセット上のシングルパスベースラインモデルと比較して、目に見えないサービスのパフォーマンスを少なくとも1.6倍改善する。
sgd-qaは最先端のマルチパスモデルと比較して競合性能を示し、メモリ消費とトレーニング性能の点ではるかに効率的である。
本モデルについて,アブレーション研究と誤差解析を用いて徹底的な考察を行う。
関連論文リスト
- TOD-Flow: Modeling the Structure of Task-Oriented Dialogues [77.15457469745364]
ダイアログを付加した対話データからTOD-Flowグラフを推定する手法を提案する。
推定されたTOD-Flowグラフは、任意の対話モデルと容易に統合することができ、予測性能、透明性、制御性を改善することができる。
論文 参考訳(メタデータ) (2023-12-07T20:06:23Z) - Span-Selective Linear Attention Transformers for Effective and Robust
Schema-Guided Dialogue State Tracking [7.176787451868171]
本稿では,従来の手法よりも優れた一般化と効率を実現する新しいアーキテクチャであるSPLATを紹介する。
本稿では,SGD(Guided Dialogue)とMultiWOZ(MultiWOZ)データセットにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2023-06-15T17:59:31Z) - History Semantic Graph Enhanced Conversational KBQA with Temporal
Information Modeling [28.27368343751272]
会話履歴における長距離意味的依存関係を効果的にモデル化できる履歴意味グラフ拡張KBQAモデル(HSGE)を提案する。
複雑な逐次質問応答のためのベンチマークデータセットを用いてHSGEを評価した。
論文 参考訳(メタデータ) (2023-06-12T05:10:58Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning [7.5700317050237365]
対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-12-06T09:40:15Z) - A Multi-Task BERT Model for Schema-Guided Dialogue State Tracking [78.2700757742992]
タスク指向対話システムは対話状態追跡器(DST)を用いて会話を完了させる。
最近の最先端のDST実装は、モデルの堅牢性を改善するために様々なサービスのスキーマに依存している。
本稿では,意図予測,要求スロット予測,スロットフィリングの3つのDSTタスクを協調的に解決する単一マルチタスクBERTモデルを提案する。
論文 参考訳(メタデータ) (2022-07-02T13:27:59Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - A Fast and Robust BERT-based Dialogue State Tracker for Schema-Guided
Dialogue Dataset [8.990035371365408]
本稿では,目標指向対話システムにおける状態追跡のための高速かつ堅牢なBERTベースモデルであるFastSGTを紹介する。
提案モデルは自然言語記述を含むGuided Dialogueデータセットのために設計されている。
本モデルでは,精度を著しく向上しつつ,計算およびメモリ消費の面で効率を保っている。
論文 参考訳(メタデータ) (2020-08-27T18:51:18Z) - Non-Autoregressive Dialog State Tracking [122.2328875457225]
非自己回帰的対話状態追跡(NADST)の新しい枠組みを提案する。
NADSTはドメインとスロット間の潜在的な依存関係を分解し、分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化する。
以上の結果から,MultiWOZ 2.1コーパス上の全領域にわたる最先端の接合精度が得られた。
論文 参考訳(メタデータ) (2020-02-19T06:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。