論文の概要: Preview, Attend and Review: Schema-Aware Curriculum Learning for
Multi-Domain Dialog State Tracking
- arxiv url: http://arxiv.org/abs/2106.00291v1
- Date: Tue, 1 Jun 2021 07:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 23:23:48.931854
- Title: Preview, Attend and Review: Schema-Aware Curriculum Learning for
Multi-Domain Dialog State Tracking
- Title(参考訳): マルチドメイン対話状態追跡のためのスキーマ対応カリキュラム学習のプレビュー,参加,レビュー
- Authors: Yinpei Dai, Hangyu Li, Yongbin Li, Jian Sun, Fei Huang, Luo Si,
Xiaodan Zhu
- Abstract要約: 既存のダイアログ状態追跡(DST)モデルは、ランダムな順番でダイアログデータをトレーニングする。
課題指向対話におけるカリキュラム構造とスキーマ構造の両方をよりよく活用するために,カリキュラム学習(CL)を提案する。
- 参考スコア(独自算出の注目度): 43.46435325700253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing dialog state tracking (DST) models are trained with dialog data in a
random order, neglecting rich structural information in a dataset. In this
paper, we propose to use curriculum learning (CL) to better leverage both the
curriculum structure and schema structure for task-oriented dialogs.
Specifically, we propose a model-agnostic framework called Schema-aware
Curriculum Learning for Dialog State Tracking (SaCLog), which consists of a
preview module that pre-trains a DST model with schema information, a
curriculum module that optimizes the model with CL, and a review module that
augments mispredicted data to reinforce the CL training. We show that our
proposed approach improves DST performance over both a transformer-based and
RNN-based DST model (TripPy and TRADE) and achieves new state-of-the-art
results on WOZ2.0 and MultiWOZ2.1.
- Abstract(参考訳): 既存のダイアログ状態追跡(DST)モデルは、データセットの豊富な構造情報を無視して、ランダムにダイアログデータをトレーニングする。
本稿では,課題指向対話におけるカリキュラム構造とスキーマ構造の両方をよりよく活用するために,カリキュラム学習(CL)を提案する。
具体的には,Schema-aware Curriculum Learning for Dialog State Tracking (SaCLog) と呼ばれるモデルに依存しないフレームワークを提案する。このフレームワークは,DSTモデルをスキーマ情報で事前トレーニングするプレビューモジュールと,CLでモデルを最適化するカリキュラムモジュールと,CLトレーニングの強化のために誤予測データを拡張するレビューモジュールから構成される。
提案手法は変換器ベースおよびRNNベースDSTモデル(TripPyおよびTRADE)よりもDST性能が向上し,WOZ2.0およびMultiWOZ2.1における新たな最先端結果が得られることを示す。
関連論文リスト
- CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [56.199779065855004]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Enhancing Dialogue State Tracking Models through LLM-backed User-Agents Simulation [12.93942316816741]
GPT-4はユーザとエージェントのインタラクションをシミュレートするために使用され、DSTラベルと数千の注釈付き対話を生成する。
生成されたデータとDST予測のための実データとに基づいて、LLaMA2の2段階微調整を行う。
我々のアプローチは、現実世界のシナリオにおける動的な要求に適応し、新しいドメインでの対話を迅速に生成することもできます。
論文 参考訳(メタデータ) (2024-05-17T07:00:05Z) - Schema Graph-Guided Prompt for Multi-Domain Dialogue State Tracking [16.955887768832046]
対話スキーマを組み込んでドメイン固有のプロンプトを学習するグラフベースのフレームワークを提案する。
具体的には、グラフニューラルネットワークによって符号化されたドメイン固有スキーマを事前訓練された言語モデルに組み込む。
本実験は,提案手法が他のマルチドメインDST手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-10T19:00:02Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - Representation Learning for Conversational Data using Discourse Mutual
Information Maximization [9.017156603976915]
構造を意識しない単語・バイ・ワード生成は効果的な会話モデリングには適さないと我々は主張する。
対話表現モデルの学習のための構造認識型相互情報に基づく損失関数DMIを提案する。
本モデルでは,対話評価タスクであるDailyDialog++において,ランダムな負のシナリオと逆のシナリオの両方において,最も有望な性能を示す。
論文 参考訳(メタデータ) (2021-12-04T13:17:07Z) - Schema-Guided Paradigm for Zero-Shot Dialog [9.822870889029115]
本稿では,STARコーパスのアテンションモデル(SAM)とスキーマ表現の改善について紹介する。
SAMはゼロショット設定が大幅に改善され、前の作業よりも+22のF1スコアが向上した。
その結果, ダイアログにおけるゼロショット一般化の可能性が検証された。
論文 参考訳(メタデータ) (2021-06-13T17:44:45Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。