論文の概要: ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2109.10126v1
- Date: Tue, 21 Sep 2021 12:16:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 19:24:56.033865
- Title: ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- Title(参考訳): ConvFiT:事前訓練された言語モデルの対話的微調整
- Authors: Ivan Vuli\'c, Pei-Hao Su, Sam Coope, Daniela Gerz, Pawe{\l}
Budzianowski, I\~nigo Casanueva, Nikola Mrk\v{s}i\'c, Tsung-Hsien Wen
- Abstract要約: 大規模なテキストコレクションに事前訓練されたトランスフォーマーベース言語モデル(LM)は、豊富なセマンティック知識を保存できることが証明されている。
本稿では,任意の事前学習したLMをユニバーサルな会話エンコーダに変換する,シンプルで効率的な2段階の手順であるConvFiTを提案する。
- 参考スコア(独自算出の注目度): 42.7160113690317
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Transformer-based language models (LMs) pretrained on large text collections
are proven to store a wealth of semantic knowledge. However, 1) they are not
effective as sentence encoders when used off-the-shelf, and 2) thus typically
lag behind conversationally pretrained (e.g., via response selection) encoders
on conversational tasks such as intent detection (ID). In this work, we propose
ConvFiT, a simple and efficient two-stage procedure which turns any pretrained
LM into a universal conversational encoder (after Stage 1 ConvFiT-ing) and
task-specialised sentence encoder (after Stage 2). We demonstrate that 1)
full-blown conversational pretraining is not required, and that LMs can be
quickly transformed into effective conversational encoders with much smaller
amounts of unannotated data; 2) pretrained LMs can be fine-tuned into
task-specialised sentence encoders, optimised for the fine-grained semantics of
a particular task. Consequently, such specialised sentence encoders allow for
treating ID as a simple semantic similarity task based on interpretable nearest
neighbours retrieval. We validate the robustness and versatility of the ConvFiT
framework with such similarity-based inference on the standard ID evaluation
sets: ConvFiT-ed LMs achieve state-of-the-art ID performance across the board,
with particular gains in the most challenging, few-shot setups.
- Abstract(参考訳): 大規模なテキストコレクションに事前訓練されたトランスフォーマーベース言語モデル(LM)は、豊富なセマンティック知識を保存することが証明されている。
しかし、
1)オフザシェルフ使用時の文エンコーダとして有効ではない。
2) 典型的には、意図検出(ID)などの会話タスクにおいて、会話事前訓練(例えば、応答選択)エンコーダに遅れが生じる。
本研究では,事前学習されたlmを(第1段階以降)普遍会話エンコーダと(第2段階以降)タスク特化文エンコーダに変換する,単純かつ効率的な二段階手順であるconvfitを提案する。
私たちはそれを証明します
1) 本格的な会話事前学習は必要とせず, lms は少ない量の無記名データを持つ効果的な会話エンコーダに迅速に変換できる。
2) 訓練済みのLMをタスク特化文エンコーダに微調整し,特定のタスクの微粒な意味論に最適化する。
したがって、このような特殊化文エンコーダは、解釈可能な近傍の検索に基づいて、IDを単純な意味的類似性タスクとして扱うことができる。
我々は、ConvFiTフレームワークの堅牢性と汎用性を、標準的なID評価セットに類似性に基づく推論で検証する。
関連論文リスト
- Self-supervised Rewiring of Pre-trained Speech Encoders: Towards Faster
Fine-tuning with Less Labels in Speech Processing [66.92823764664206]
我々は、事前訓練された音声エンコーダを精査し、タスク固有のラベルを必要とせず、その表現空間を再構成する。
6つの音声処理タスクに関する実験では,タスクの微調整と一貫したタスク改善の間に顕著な収束速度が得られた。
論文 参考訳(メタデータ) (2022-10-24T08:27:09Z) - Efficient Long-Text Understanding with Short-Text Models [38.8375175429553]
SLEDは、バトルテストされた短文事前訓練されたLMを再利用し活用する、長いシーケンスを処理するための単純なアプローチである。
入力を重なり合うチャンクに分割し、それぞれを短文のLMエンコーダでエンコードし、事前訓練されたデコーダを使用してチャンク間で情報を融合する。
SLEDは、最大50倍の大きさで、専用で高価な事前訓練ステップを必要とする特殊なモデルと競合している。
論文 参考訳(メタデータ) (2022-08-01T11:14:39Z) - Wav2Seq: Pre-training Speech-to-Text Encoder-Decoder Models Using Pseudo
Languages [58.43299730989809]
本稿では,音声データに対するエンコーダ・デコーダモデルの両部分を事前学習するための,最初の自己教師型アプローチであるWav2Seqを紹介する。
我々は、コンパクトな離散表現として擬似言語を誘導し、自己教師付き擬似音声認識タスクを定式化する。
このプロセスは独自のものであり、低コストの第2段階のトレーニングとして適用することができる。
論文 参考訳(メタデータ) (2022-05-02T17:59:02Z) - Trans-Encoder: Unsupervised sentence-pair modelling through self- and
mutual-distillations [22.40667024030858]
バイエンコーダは固定次元の文表現を生成し、計算効率が良い。
クロスエンコーダは、アテンションヘッドを利用して、より優れたパフォーマンスのために文間相互作用を利用することができる。
Trans-Encoderは、2つの学習パラダイムを反復的なジョイントフレームワークに統合し、拡張されたバイ・エンコーダとクロス・エンコーダを同時に学習する。
論文 参考訳(メタデータ) (2021-09-27T14:06:47Z) - Stacked Acoustic-and-Textual Encoding: Integrating the Pre-trained
Models into Speech Translation Encoders [30.160261563657947]
エンドツーエンドの音声翻訳では、事前トレーニングが有望です。
Stackedを提案します。
音声翻訳のための音響・テキスト(SATE)法
エンコーダはアコースティックシーケンスを通常どおりに処理することから始まり、その後はアコースティックシーケンスのように振る舞う。
MTエンコーダは入力シーケンスのグローバル表現である。
論文 参考訳(メタデータ) (2021-05-12T16:09:53Z) - COCO-LM: Correcting and Contrasting Text Sequences for Language Model
Pretraining [59.169836983883656]
COCO-LMは、チャレンジングなエラーとテキストシーケンスの変換によって言語モデルを事前学習する新しい自己監視学習フレームワークです。
COCO-LMは、オリジナルのテキストシーケンスでマスク&予測トークンに補助言語モデルを採用しています。
分析の結果,coco-lmのアドバンテージは,困難なトレーニング信号,よりコンテキスト化されたトークン表現,正規化されたシーケンス表現であることがわかった。
論文 参考訳(メタデータ) (2021-02-16T22:24:29Z) - Scheduled Sampling in Vision-Language Pretraining with Decoupled
Encoder-Decoder Network [99.03895740754402]
本稿では,2つの切り離されたクロスモーダルエンコーダとデコーダが関与するエンコーダ・デコーダ構造の2ストリーム分離設計を提案する。
その代替として,2パス方式でエンコーダデコーダを事前学習することで,そのような不一致を緩和する一次サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-27T17:36:57Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。