論文の概要: Out-of-Task Training for Dialog State Tracking Models
- arxiv url: http://arxiv.org/abs/2011.09379v1
- Date: Wed, 18 Nov 2020 16:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:03:50.417221
- Title: Out-of-Task Training for Dialog State Tracking Models
- Title(参考訳): 対話状態追跡モデルのタスク外訓練
- Authors: Michael Heck, Carel van Niekerk, Nurul Lubis, Christian Geishauser,
Hsien-Chin Lin, Marco Moresi, Milica Ga\v{s}i\'c
- Abstract要約: ダイアログ状態追跡(DST)は、重度のデータ間隔に悩まされる。
本研究では,無関係なNLPタスクからの非ログデータを用いて,対話状態トラッカーの学習に成功した。
- 参考スコア(独自算出の注目度): 2.78632567955797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialog state tracking (DST) suffers from severe data sparsity. While many
natural language processing (NLP) tasks benefit from transfer learning and
multi-task learning, in dialog these methods are limited by the amount of
available data and by the specificity of dialog applications. In this work, we
successfully utilize non-dialog data from unrelated NLP tasks to train dialog
state trackers. This opens the door to the abundance of unrelated NLP corpora
to mitigate the data sparsity issue inherent to DST.
- Abstract(参考訳): ダイアログ状態追跡(DST)は重度のデータ間隔に悩まされる。
多くの自然言語処理(NLP)タスクは転送学習やマルチタスク学習の恩恵を受けるが、ダイアログではこれらの手法は利用可能なデータ量や対話アプリケーションの特異性によって制限される。
本研究では,関係のないnlpタスクからの非ダイアログデータを,ダイアログ状態トラッカのトレーニングに有効活用する。
これにより、DST固有のデータ空間の問題を軽減するために、無関係なNLPコーパスの多さへの扉を開く。
関連論文リスト
- Intent-driven In-context Learning for Few-shot Dialogue State Tracking [14.866241060137714]
対話状態追跡(DST)はタスク指向対話システムにおいて重要な役割を果たす。
IDIC-DSTは、MultiWOZ 2.1とMultiWOZ 2.4データセット上の数ショット設定で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-04T12:25:41Z) - Are LLMs Robust for Spoken Dialogues? [10.855403629160921]
大規模な事前学習型言語モデルでは、さまざまな下流タスクで最先端のパフォーマンスが実証されている。
タスク指向対話に関する公開データセットとベンチマークのほとんどは、書かれた会話に重点を置いている。
DSTC11テストセットにおける音声タスク指向対話におけるLLMの性能評価を行った。
論文 参考訳(メタデータ) (2024-01-04T14:36:38Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Turn-Level Active Learning for Dialogue State Tracking [44.752369492979064]
対話状態追跡(DST)はタスク指向対話システムにおいて重要な役割を果たす。
そこで我々はDSTのための新しいターンレベルアクティブラーニングフレームワークを提案し,対話中のターンをアノテートするために積極的に選択する。
論文 参考訳(メタデータ) (2023-10-23T02:53:46Z) - Dialogue State Distillation Network with Inter-Slot Contrastive Learning
for Dialogue State Tracking [25.722458066685046]
対話状態追跡(DST)は,対話履歴からユーザの意図を抽出することを目的としている。
現在、既存のほとんどのアプローチはエラーの伝播に悩まされており、関連する情報を動的に選択することはできない。
本稿では,従来の対話状態の関連情報を活用するために,対話状態蒸留ネットワーク(DSDN)を提案する。
論文 参考訳(メタデータ) (2023-02-16T11:05:24Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - Learning to Learn End-to-End Goal-Oriented Dialog From Related Dialog
Tasks [33.77022912718379]
関連ダイアログタスクのデータで補足された少量のデータしか利用できないことを示す。
本稿では,関連する対話タスクデータからメタ学習を選択的に学習する手法について述べる。
論文 参考訳(メタデータ) (2021-10-10T15:27:45Z) - Language Models as Few-Shot Learner for Task-Oriented Dialogue Systems [74.8759568242933]
タスク指向対話システムは、自然言語理解(NLU)、対話状態追跡(DST)、対話ポリシー(DP)、自然言語生成(NLG)の4つの連結モジュールを使用する。
研究課題は、データ収集に関連する高コストから最小限のサンプルで各モジュールを学習することである。
我々は,NLU,DP,NLGタスクにおいて,言語モデルの素小ショット能力を評価する。
論文 参考訳(メタデータ) (2020-08-14T08:23:21Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。