論文の概要: Non-Autoregressive Dialog State Tracking
- arxiv url: http://arxiv.org/abs/2002.08024v1
- Date: Wed, 19 Feb 2020 06:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 12:41:33.291261
- Title: Non-Autoregressive Dialog State Tracking
- Title(参考訳): 非自己回帰的ダイアログ状態追跡
- Authors: Hung Le, Richard Socher, Steven C.H. Hoi
- Abstract要約: 非自己回帰的対話状態追跡(NADST)の新しい枠組みを提案する。
NADSTはドメインとスロット間の潜在的な依存関係を分解し、分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化する。
以上の結果から,MultiWOZ 2.1コーパス上の全領域にわたる最先端の接合精度が得られた。
- 参考スコア(独自算出の注目度): 122.2328875457225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent efforts in Dialogue State Tracking (DST) for task-oriented dialogues
have progressed toward open-vocabulary or generation-based approaches where the
models can generate slot value candidates from the dialogue history itself.
These approaches have shown good performance gain, especially in complicated
dialogue domains with dynamic slot values. However, they fall short in two
aspects: (1) they do not allow models to explicitly learn signals across
domains and slots to detect potential dependencies among (domain, slot) pairs;
and (2) existing models follow auto-regressive approaches which incur high time
cost when the dialogue evolves over multiple domains and multiple turns. In
this paper, we propose a novel framework of Non-Autoregressive Dialog State
Tracking (NADST) which can factor in potential dependencies among domains and
slots to optimize the models towards better prediction of dialogue states as a
complete set rather than separate slots. In particular, the non-autoregressive
nature of our method not only enables decoding in parallel to significantly
reduce the latency of DST for real-time dialogue response generation, but also
detect dependencies among slots at token level in addition to slot and domain
level. Our empirical results show that our model achieves the state-of-the-art
joint accuracy across all domains on the MultiWOZ 2.1 corpus, and the latency
of our model is an order of magnitude lower than the previous state of the art
as the dialogue history extends over time.
- Abstract(参考訳): タスク指向対話における対話状態追跡(DST)の最近の取り組みは,対話履歴自体からスロット値候補を生成可能なオープンボキャブラリや生成ベースアプローチへと進展している。
これらの手法は、特に動的スロット値を持つ複雑な対話領域において、優れた性能を示す。
しかし、それらは2つの側面に不足している: 1) モデルでは、(ドメイン、スロット)ペア間の潜在的な依存関係を検出するために、ドメインとスロット間のシグナルを明示的に学習することができない;2) 既存のモデルは、複数のドメインと複数のターンで対話が進化する際に高い時間コストを発生させる自己回帰的アプローチに従う。
本稿では,非自己回帰的対話状態追跡(nadst)の新たな枠組みを提案する。これはドメイン間の潜在的な依存関係を要因として,分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化することができる。
特に,本手法の非自己回帰特性は,リアルタイム対話応答生成におけるDSTの遅延を著しく低減すると同時に,スロットやドメインレベルに加えてトークンレベルでのスロット間の依存性を検出する。
実験の結果,MultiWOZ 2.1コーパス上のすべてのドメインにおいて,我々のモデルは最先端の関節精度を達成でき,対話履歴が時間とともに長くなるにつれて,我々のモデルのレイテンシは従来よりも桁違いに低いことがわかった。
関連論文リスト
- TOD-Flow: Modeling the Structure of Task-Oriented Dialogues [77.15457469745364]
ダイアログを付加した対話データからTOD-Flowグラフを推定する手法を提案する。
推定されたTOD-Flowグラフは、任意の対話モデルと容易に統合することができ、予測性能、透明性、制御性を改善することができる。
論文 参考訳(メタデータ) (2023-12-07T20:06:23Z) - Dialogue State Distillation Network with Inter-Slot Contrastive Learning
for Dialogue State Tracking [25.722458066685046]
対話状態追跡(DST)は,対話履歴からユーザの意図を抽出することを目的としている。
現在、既存のほとんどのアプローチはエラーの伝播に悩まされており、関連する情報を動的に選択することはできない。
本稿では,従来の対話状態の関連情報を活用するために,対話状態蒸留ネットワーク(DSDN)を提案する。
論文 参考訳(メタデータ) (2023-02-16T11:05:24Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - DiSTRICT: Dialogue State Tracking with Retriever Driven In-Context
Tuning [7.5700317050237365]
対話状態追跡(DST)のための一般化可能なインコンテキストチューニング手法であるDiSTRICTを提案する。
DSTRICTは、手作りのテンプレートを使わずにモデルを微調整するために、与えられた対話のための非常に関連性の高いトレーニング例を検索する。
MultiWOZベンチマークデータセットによる実験では、DiSTRICTは、さまざまなゼロショットおよび少数ショット設定において、既存のアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-12-06T09:40:15Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Meta Dialogue Policy Learning [58.045067703675095]
我々は、ドメイン間の共有可能な低レベル信号を利用するために、Deep Transferable Q-Network (DTQN)を提案する。
状態と行動表現空間をこれらの低レベル成分に対応する特徴部分空間に分解する。
実験において,本モデルは,成功率と対話効率の両方の観点から,ベースラインモデルより優れている。
論文 参考訳(メタデータ) (2020-06-03T23:53:06Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - Efficient Context and Schema Fusion Networks for Multi-Domain Dialogue
State Tracking [32.36259992245]
対話状態追跡(DST)は、前回の会話のすべてから現在の対話状態を推定することを目的としている。
マルチドメインDSTでは、状態候補の数の増加と対話長の増加により、データ空間の問題が大きな障害となっている。
従来の対話状態(予測)と現在の対話発話をDSTの入力として利用する。
論文 参考訳(メタデータ) (2020-04-07T13:46:39Z) - Domain-Aware Dialogue State Tracker for Multi-Domain Dialogue Systems [2.3859169601259347]
タスク指向対話システムでは、対話状態トラッカー(DST)コンポーネントが対話履歴に基づいて対話の状態を予測する。
我々は、完全にデータ駆動であり、動的サービススキーマを予測するためにモデル化されたドメイン対応対話状態トラッカーを提案する。
論文 参考訳(メタデータ) (2020-01-21T13:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。