論文の概要: Towards Simple and Efficient Task-Adaptive Pre-training for Text
Classification
- arxiv url: http://arxiv.org/abs/2209.12943v1
- Date: Mon, 26 Sep 2022 18:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:41:40.478040
- Title: Towards Simple and Efficient Task-Adaptive Pre-training for Text
Classification
- Title(参考訳): テキスト分類のための簡易かつ効率的なタスク適応型事前学習に向けて
- Authors: Arnav Ladkat, Aamir Miyajiwala, Samiksha Jagadale, Rekha Kulkarni,
Raviraj Joshi
- Abstract要約: TAPTおよびタスク固有の微調整において,埋め込み層のみの学習がモデルの性能に及ぼす影響について検討した。
TAPT中のBERT埋め込み層のみのトレーニングは、ターゲットドメインの語彙に適応し、同等の性能を達成するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models are pre-trained using large corpora of generic data like book
corpus, common crawl and Wikipedia, which is essential for the model to
understand the linguistic characteristics of the language. New studies suggest
using Domain Adaptive Pre-training (DAPT) and Task-Adaptive Pre-training (TAPT)
as an intermediate step before the final finetuning task. This step helps cover
the target domain vocabulary and improves the model performance on the
downstream task. In this work, we study the impact of training only the
embedding layer on the model's performance during TAPT and task-specific
finetuning. Based on our study, we propose a simple approach to make the
intermediate step of TAPT for BERT-based models more efficient by performing
selective pre-training of BERT layers. We show that training only the BERT
embedding layer during TAPT is sufficient to adapt to the vocabulary of the
target domain and achieve comparable performance. Our approach is
computationally efficient, with 78\% fewer parameters trained during TAPT. The
proposed embedding layer finetuning approach can also be an efficient domain
adaptation technique.
- Abstract(参考訳): 言語モデルは、書籍コーパス、コモンクロール、ウィキペディアのような大量の汎用データを用いて事前学習されており、言語の特徴を理解するのに欠かせない。
ドメイン適応事前訓練(DAPT)とタスク適応事前訓練(TAPT)を最終微調整作業の中間段階として用いることを提案する。
このステップは、ターゲットドメインの語彙をカバーし、下流タスクのモデルパフォーマンスを改善するのに役立つ。
本研究では,TAPTおよびタスク特化ファインタニング中のモデルの性能に及ぼす埋め込み層のみのトレーニングの影響について検討する。
本研究では,BERTモデルにおけるTAPTの中間ステップをより効率的にするための簡単な手法を提案する。
TAPT中のBERT埋め込み層のみのトレーニングは、ターゲットドメインの語彙に適応し、同等の性能を達成するのに十分であることを示す。
提案手法は計算効率が良く,taptでは78\%のパラメータがトレーニングされている。
提案する埋め込み層微細化手法は,効率的なドメイン適応手法である。
関連論文リスト
- Task-Oriented Pre-Training for Drivable Area Detection [5.57325257338134]
本稿では,冗長なセグメンテーションの提案から始まるタスク指向の事前学習手法を提案する。
次に、コントラスト言語画像事前学習(CLIP)モデルを微調整するための特定カテゴリー強化微調整(SCEF)戦略を導入する。
このアプローチは、手動のアノテートデータを使用してさらに微調整された事前学習モデルの粗いトレーニングデータを生成することができる。
論文 参考訳(メタデータ) (2024-09-30T10:25:47Z) - An Efficient Active Learning Pipeline for Legal Text Classification [2.462514989381979]
法律分野における事前学習言語モデルを用いて,能動的学習を効果的に活用するためのパイプラインを提案する。
我々は、知識蒸留を用いてモデルの埋め込みを意味論的意味のある空間に導く。
分類タスクに適応したContract-NLIとLEDGARベンチマークの実験により,本手法が標準AL戦略より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-15T13:07:02Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - Back-Translated Task Adaptive Pretraining: Improving Accuracy and
Robustness on Text Classification [5.420446976940825]
本稿では, LM再学習のためのタスク固有データ量を増加させるBT-TAPT法を提案する。
実験結果から,BT-TAPTは従来の適応型事前学習法よりも低リソースデータと高リソースデータの両方の分類精度が向上し,ノイズに対する堅牢性が向上することがわかった。
論文 参考訳(メタデータ) (2021-07-22T06:27:35Z) - A Tailored Pre-Training Model for Task-Oriented Dialog Generation [60.05269529832447]
タスク指向対話システムのための事前訓練された役割交替言語モデル(PRAL)を提案する。
13個の既存のデータセットをクリーニングすることでタスク指向の対話事前学習データセットを導入する。
その結果,PRALは最先端の手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-04-24T09:25:45Z) - Don't Stop Pretraining: Adapt Language Models to Domains and Tasks [81.99843216550306]
バイオメディカルおよびコンピュータサイエンスの出版物、ニュース、レビュー)と8つの分類タスクについて調査する。
ドメイン内の事前トレーニング(ドメイン適応型事前トレーニング)の第2フェーズでは、パフォーマンスが向上する。
タスクの未ラベルデータ(タスク適応事前トレーニング)に適応することで、ドメイン適応事前トレーニング後のパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-04-23T04:21:19Z) - Train No Evil: Selective Masking for Task-Guided Pre-Training [97.03615486457065]
一般的な事前学習と微調整の間を選択的にマスキングするタスク誘導事前学習段階を付加した3段階のフレームワークを提案する。
提案手法は,50%未満のコストで同等あるいはさらに優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-04-21T03:14:22Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。