論文の概要: Attention Guided Dialogue State Tracking with Sparse Supervision
- arxiv url: http://arxiv.org/abs/2101.11958v1
- Date: Thu, 28 Jan 2021 12:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:22:59.594491
- Title: Attention Guided Dialogue State Tracking with Sparse Supervision
- Title(参考訳): スパース監督による注意誘導対話状態追跡
- Authors: Shuailong Liang, Lahari Poddar, Gyuri Szarvas
- Abstract要約: コールセンタでは、予約やサブスクリプションの管理といったタスクに対して、ユーザ目標をカスタマーサービスエージェントが発行するアクションに関連付けることができる。
これらのアクションログは大容量で利用可能であり、対話状態の学習に利用することができる。
本稿では,現在最先端のエンコーダデコーダモデルを拡張して,スパースラベルを用いた対話状態追跡(DST)を効率的に学習する。
- 参考スコア(独自算出の注目度): 5.758073912084366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches to Dialogue State Tracking (DST) rely on turn level
dialogue state annotations, which are expensive to acquire in large scale. In
call centers, for tasks like managing bookings or subscriptions, the user goal
can be associated with actions (e.g.~API calls) issued by customer service
agents. These action logs are available in large volumes and can be utilized
for learning dialogue states. However, unlike turn-level annotations, such
logged actions are only available sparsely across the dialogue, providing only
a form of weak supervision for DST models. To efficiently learn DST with sparse
labels, we extend a state-of-the-art encoder-decoder model. The model learns a
slot-aware representation of dialogue history, which focuses on relevant turns
to guide the decoder. We present results on two public multi-domain DST
datasets (MultiWOZ and Schema Guided Dialogue) in both settings i.e. training
with turn-level and with sparse supervision. The proposed approach improves
over baseline in both settings. More importantly, our model trained with sparse
supervision is competitive in performance to fully supervised baselines, while
being more data and cost efficient.
- Abstract(参考訳): 既存のダイアログ状態追跡(DST)アプローチはターンレベルのダイアログ状態アノテーションに依存しており、大規模な取得にはコストがかかる。
コールセンタでは、予約やサブスクリプションの管理といったタスクに対して、ユーザ目標をカスタマーサービスエージェントが発行するアクション(例えばAPIコール)に関連付けることができる。
これらのアクションログは大量に利用可能で、対話状態の学習に利用できます。
しかし、ターンレベルのアノテーションとは異なり、そのようなログされたアクションは対話全体でしか利用できず、DSTモデルに対する弱い監督形態のみを提供する。
スパースラベルでDSTを効率的に学習するため,最先端エンコーダデコーダモデルを拡張した。
モデルは対話履歴のスロット認識表現を学習し、関連するターンに着目してデコーダを誘導する。
本稿では,2つの公開マルチドメインDSTデータセット(MultiWOZとSchema Guided Dialogue)について,両設定で結果を示す。
ターンレベルとまばらな監督によるトレーニング。
提案手法は,両設定のベースラインを改良する。
さらに重要なのは、スパースな監督で訓練された私たちのモデルは、よりデータとコスト効率が高くながら、完全に監視されたベースラインのパフォーマンスに競争力があります。
関連論文リスト
- Unsupervised End-to-End Task-Oriented Dialogue with LLMs: The Power of the Noisy Channel [9.082443585886127]
タスク指向の対話システムは一般的に、APIと対話するためにターンレベルのアノテーションを必要とする。
ラベルなしデータとスキーマ定義は、完全に教師なしの作業タスク指向対話システムを構築するのに十分である。
本稿では,ターンレベルのアノテーションを潜在変数として推論する予測最大化(EM)を用いた革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-23T16:51:26Z) - SuperDialseg: A Large-scale Dataset for Supervised Dialogue Segmentation [55.82577086422923]
文書地上対話の助けを借りて,対話のセグメンテーションポイントを実現可能な定義を提供する。
我々は,9,478の対話を含むSuperDialsegと呼ばれる大規模教師付きデータセットをリリースする。
また、対話セグメンテーションタスクの5つのカテゴリにまたがる18のモデルを含むベンチマークも提供する。
論文 参考訳(メタデータ) (2023-05-15T06:08:01Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Structure Extraction in Task-Oriented Dialogues with Slot Clustering [94.27806592467537]
タスク指向対話では、対話構造はしばしば対話状態間の遷移グラフと見なされている。
本稿では,タスク指向対話における構造抽出のための簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T20:18:12Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - SGD-QA: Fast Schema-Guided Dialogue State Tracking for Unseen Services [15.21976869687864]
質問応答アプローチに基づくスキーマガイドによる対話状態追跡モデルであるSGD-QAを提案する。
提案するマルチパスモデルは、ドメイン情報と対話発話の間で単一のエンコーダを共有する。
このモデルでは、シングルパスベースラインモデルと比較して少なくとも1.6倍の性能が向上している。
論文 参考訳(メタデータ) (2021-05-17T17:54:32Z) - Improving Limited Labeled Dialogue State Tracking with Self-Supervision [91.68515201803986]
既存の対話状態追跡(DST)モデルには多くのラベル付きデータが必要である。
本稿では,潜在的一貫性の維持と対話行動のモデル化という,自己指導型の2つの目的について検討する。
提案する自己教師型信号は,1%のラベル付きデータのみを使用する場合,関節ゴール精度を8.95%向上させることができる。
論文 参考訳(メタデータ) (2020-10-26T21:57:42Z) - Non-Autoregressive Dialog State Tracking [122.2328875457225]
非自己回帰的対話状態追跡(NADST)の新しい枠組みを提案する。
NADSTはドメインとスロット間の潜在的な依存関係を分解し、分離されたスロットではなく完全なセットとして対話状態の予測を改善するためにモデルを最適化する。
以上の結果から,MultiWOZ 2.1コーパス上の全領域にわたる最先端の接合精度が得られた。
論文 参考訳(メタデータ) (2020-02-19T06:39:26Z) - Goal-Oriented Multi-Task BERT-Based Dialogue State Tracker [0.1864131501304829]
State Tracking(DST)は、AlexaやSiriなどの仮想アシスタントの中核的なコンポーネントである。
本研究では,GOaL指向マルチタスクBERTベースの対話状態トラッカー(GOLOMB)を提案する。
論文 参考訳(メタデータ) (2020-02-05T22:56:12Z) - Domain-Aware Dialogue State Tracker for Multi-Domain Dialogue Systems [2.3859169601259347]
タスク指向対話システムでは、対話状態トラッカー(DST)コンポーネントが対話履歴に基づいて対話の状態を予測する。
我々は、完全にデータ駆動であり、動的サービススキーマを予測するためにモデル化されたドメイン対応対話状態トラッカーを提案する。
論文 参考訳(メタデータ) (2020-01-21T13:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。