論文の概要: On Task-Adaptive Pretraining for Dialogue Response Selection
- arxiv url: http://arxiv.org/abs/2210.04073v1
- Date: Sat, 8 Oct 2022 17:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:36:46.495779
- Title: On Task-Adaptive Pretraining for Dialogue Response Selection
- Title(参考訳): 対話応答選択のためのタスク適応型事前学習について
- Authors: Tzu-Hsiang Lin, Ta-Chung Chi, Anna Rumshisky
- Abstract要約: 本稿では,従来の進歩における仮定を検証し,対話応答選択(DRS)の改善の源泉を理解することを目的とする。
我々は,RoBERTaの初期化がBERTと同じような性能を達成できることを示し,提案したTAPタスクのすべてに対して,予測+NSPが優れていることを示す。
さらなる分析では、改善の主な原因はTAPステップによるもので、NSPタスクがDSSにとって重要であることが示されている。
- 参考スコア(独自算出の注目度): 9.502775168613589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in dialogue response selection (DRS) are based on the
\textit{task-adaptive pre-training (TAP)} approach, by first initializing their
model with BERT~\cite{devlin-etal-2019-bert}, and adapt to dialogue data with
dialogue-specific or fine-grained pre-training tasks. However, it is uncertain
whether BERT is the best initialization choice, or whether the proposed
dialogue-specific fine-grained learning tasks are actually better than MLM+NSP.
This paper aims to verify assumptions made in previous works and understand the
source of improvements for DRS. We show that initializing with RoBERTa achieve
similar performance as BERT, and MLM+NSP can outperform all previously proposed
TAP tasks, during which we also contribute a new state-of-the-art on the Ubuntu
corpus. Additional analyses shows that the main source of improvements comes
from the TAP step, and that the NSP task is crucial to DRS, different from
common NLU tasks.
- Abstract(参考訳): 対話応答選択(DRS)の最近の進歩は、まず、BERT~\cite{devlin-etal-2019-bert}でモデルを初期化し、対話特化またはきめ細かな事前訓練タスクで対話データに適応させることによって、TaP(textit{task-adaptive pre-training)アプローチに基づいている。
しかし、BERTが最良の初期化選択であるかどうか、あるいは、提案した対話特化学習タスクが実際にMLM+NSPよりも優れているかどうかは不明である。
本稿は,従来の研究における仮定を検証し,DSSの改善の源泉を理解することを目的とする。
我々は,RoBERTaの初期化はBERTと同等の性能を示し,MLM+NSPは従来提案されていたすべてのTAPタスクより優れていることを示す。
さらなる分析によると、改善の主な原因はTAPステップによるもので、NSPタスクは一般的なNLUタスクとは異なる、DSSにとって不可欠である。
関連論文リスト
- InstructTODS: Large Language Models for End-to-End Task-Oriented
Dialogue Systems [60.53276524369498]
大規模言語モデル(LLM)は自然言語処理(NLP)における多様なタスクに使用されている。
InstructTODSは、ゼロショットのタスク指向対話システムのための新しいフレームワークである。
InstructTODSは、ユーザの意図を動的クエリにシームレスに翻訳するプロキシの信念状態を生成する。
論文 参考訳(メタデータ) (2023-10-13T06:36:26Z) - Task-Optimized Adapters for an End-to-End Task-Oriented Dialogue System [0.0]
本稿では,タスク毎に個別に学習し,事前学習したネットワークの固定層に少数のパラメータを追加するタスク・ド・アダプタを用いたエンドツーエンドTODシステムを提案する。
提案手法はモデルに依存しない手法であり,プロンプトを使わずに入力データのみをプロンプトチューニングする必要がない。
論文 参考訳(メタデータ) (2023-05-04T00:17:49Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z) - Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System [26.837972034630003]
PPTODはタスク指向対話のための統一的なプラグアンドプレイモデルである。
エンド・ツー・エンドの対話モデル、対話状態追跡、意図分類を含む3つのベンチマークTODタスクにおいて、我々のモデルを広範囲にテストする。
論文 参考訳(メタデータ) (2021-09-29T22:02:18Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Task-specific Objectives of Pre-trained Language Models for Dialogue
Adaptation [79.0866650271659]
PrLMを利用する一般的なプロセスは、まずタスク非依存のLMトレーニング目標を持つ大規模汎用コーパス上で事前トレーニングを行い、タスク固有のトレーニング目標を持つタスクデータセットを微調整する。
タスク固有の目的を持つドメイン内タスク関連コーパスにタスク固有の事前学習を導入する。
この手順は、特定のタスクのモデル理解能力を高めるために、元の2つのステージの間に置かれる。
論文 参考訳(メタデータ) (2020-09-10T16:46:46Z) - A Tailored Pre-Training Model for Task-Oriented Dialog Generation [60.05269529832447]
タスク指向対話システムのための事前訓練された役割交替言語モデル(PRAL)を提案する。
13個の既存のデータセットをクリーニングすることでタスク指向の対話事前学習データセットを導入する。
その結果,PRALは最先端の手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-04-24T09:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。