論文の概要: Modeling Long Context for Task-Oriented Dialogue State Generation
- arxiv url: http://arxiv.org/abs/2004.14080v1
- Date: Wed, 29 Apr 2020 11:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:43:17.152578
- Title: Modeling Long Context for Task-Oriented Dialogue State Generation
- Title(参考訳): タスク指向対話状態生成のための長期文脈のモデル化
- Authors: Jun Quan and Deyi Xiong
- Abstract要約: 本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
- 参考スコア(独自算出の注目度): 51.044300192906995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the recently proposed transferable dialogue state generator (TRADE)
that predicts dialogue states from utterance-concatenated dialogue context, we
propose a multi-task learning model with a simple yet effective utterance
tagging technique and a bidirectional language model as an auxiliary task for
task-oriented dialogue state generation. By enabling the model to learn a
better representation of the long dialogue context, our approaches attempt to
solve the problem that the performance of the baseline significantly drops when
the input dialogue context sequence is long. In our experiments, our proposed
model achieves a 7.03% relative improvement over the baseline, establishing a
new state-of-the-art joint goal accuracy of 52.04% on the MultiWOZ 2.0 dataset.
- Abstract(参考訳): 本稿では,最近提案する発話結合対話コンテキストから対話状態を予測するトランスファラブル対話状態生成システム(trade)に基づいて,タスク指向対話状態生成のための補助タスクとして,単純かつ効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,長い対話コンテキストの表現性の向上をモデルが学べるようにすることで,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下するという問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対する相対的改善を7.03%達成し,新しい最先端共同目標精度を52.04%とした。
関連論文リスト
- DFlow: Diverse Dialogue Flow Simulation with Large Language Models [16.209331014315463]
本稿では,合成対話の多様性を高めるために,新たなデータ拡張手法を提案する。
我々は、15の異なる領域に3,886の対話フローからなるタスク指向対話データセットを生成する。
論文 参考訳(メタデータ) (2024-10-18T20:35:28Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension [42.57581945778631]
抽象的な対話要約は、自然言語処理における重要なスタンドアロンタスクとみなされてきた。
本稿では,新たな対話要約タスクであるSTRUctured DiaLoguE Summarizationを提案する。
変換器エンコーダ言語モデルの対話理解性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-24T04:39:54Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - GALAXY: A Generative Pre-trained Model for Task-Oriented Dialog with
Semi-Supervised Learning and Explicit Policy Injection [36.77204909711832]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから,対話ポリシーを明示的に学習する,事前学習型ダイアログモデルを提案する。
具体的には、事前学習中にポリシー最適化のためのダイアログアクト予測タスクを導入し、一貫性の規則化項を用いて、学習した表現を洗練させる。
その結果,GALAXYはタスク指向対話システムの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2021-11-29T15:24:36Z) - Coreference Augmentation for Multi-Domain Task-Oriented Dialogue State
Tracking [3.34618986084988]
本稿では,コア参照機能を明示的にモデル化したCDST(Coreference Dialogue State Tracker)を提案する。
MultiWOZ 2.1データセットの実験結果は、提案モデルが56.47%の最先端のジョイントゴール精度を達成していることを示している。
論文 参考訳(メタデータ) (2021-06-16T11:47:29Z) - DialoGLUE: A Natural Language Understanding Benchmark for Task-Oriented
Dialogue [17.729711165119472]
本研究では,4つの自然言語理解タスクをカバーする7つのタスク指向対話データセットからなる公開ベンチマークであるDialoGLUE(Dialogue Language Understanding Evaluation)を紹介する。
我々は、いくつかの強力なベースラインモデルをリリースし、バニラBERTアーキテクチャの性能改善と、7つのタスクのうち5つの最先端の結果を示します。
DialoGLUEベンチマーク、ベースライン手法、評価スクリプトを通じて、我々はより汎用的なタスク指向対話モデルを開発する目標に向けて前進したいと考えている。
論文 参考訳(メタデータ) (2020-09-28T18:36:23Z) - Paraphrase Augmented Task-Oriented Dialog Generation [68.1790912977053]
本稿では,パラフレーズモデルと応答生成モデルを協調訓練するパラフレーズ拡張応答生成(PARG)フレームワークを提案する。
また、ダイアログ状態とダイアログアクトラベルに基づいて、パラフレーズトレーニングデータセットを自動構築する手法も設計する。
論文 参考訳(メタデータ) (2020-04-16T05:12:36Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z) - Variational Hierarchical Dialog Autoencoder for Dialog State Tracking
Data Augmentation [59.174903564894954]
本研究では,この手法を,ゴール指向対話のための対話状態追跡タスクに拡張する。
目的指向ダイアログの完全な側面をモデル化するための変分階層型ダイアログオートエンコーダ(VHDA)を提案する。
各種ダイアログデータセットを用いた実験により、生成データ拡張による下流ダイアログトラッカーのロバスト性の向上が示された。
論文 参考訳(メタデータ) (2020-01-23T15:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。