論文の概要: LiST: Lite Self-training Makes Efficient Few-shot Learners
- arxiv url: http://arxiv.org/abs/2110.06274v1
- Date: Tue, 12 Oct 2021 18:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 08:35:47.818308
- Title: LiST: Lite Self-training Makes Efficient Few-shot Learners
- Title(参考訳): LiST:Lite Self-trainingは、学習者が効果的に学習できるツール
- Authors: Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed
Hassan Awadallah, Jianfeng Gao
- Abstract要約: LiSTは古典的な微調整法よりも35%改善し、プロンプトチューニングよりも6%改善した。
- 参考スコア(独自算出の注目度): 91.28065455714018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new method LiST for efficient fine-tuning of large pre-trained
language models (PLMs) in few-shot learning settings. LiST significantly
improves over recent methods that adopt prompt fine-tuning using two key
techniques. The first one is the use of self-training to leverage large amounts
of unlabeled data for prompt-tuning to significantly boost the model
performance in few-shot settings. We use self-training in conjunction with
meta-learning for re-weighting noisy pseudo-prompt labels. However, traditional
self-training is expensive as it requires updating all the model parameters
repetitively. Therefore, we use a second technique for light-weight fine-tuning
where we introduce a small number of task-specific adapter parameters that are
fine-tuned during self-training while keeping the PLM encoder frozen. This also
significantly reduces the overall model footprint across several tasks that can
now share a common PLM encoder as backbone for inference. Combining the above
techniques, LiST not only improves the model performance for few-shot learning
on target domains but also reduces the model memory footprint. We present a
comprehensive study on six NLU tasks to validate the effectiveness of LiST. The
results show that LiST improves by 35% over classic fine-tuning methods and 6%
over prompt-tuning with 96% reduction in number of trainable parameters when
fine-tuned with no more than 30 labeled examples from each target domain.
- Abstract(参考訳): 本稿では,事前学習による大規模言語モデル(plm)の高精度な微調整を行うための新しい手法リストを提案する。
LiSTは、2つの重要な技術を用いた迅速な微調整を採用する最近の手法よりも大幅に改善されている。
ひとつは、プロンプトチューニングに大量のラベルのないデータを活用するために、セルフトレーニングを使用することで、数ショット設定でモデルパフォーマンスを大幅に向上する。
自己学習とメタラーニングを併用して,ノイズの多い疑似プロンプトラベルの重み付けを行う。
しかし、モデルパラメータを繰り返し更新する必要があるため、従来のセルフトレーニングは高価である。
そこで我々は,plmエンコーダを凍結させながら,自己学習中に微調整されるタスク固有のアダプタパラメータを少数導入する,軽量化のための第2の手法を用いる。
これはまた、推論のバックボーンとして共通のplmエンコーダを共有することができるいくつかのタスク全体のモデルフットプリントを大幅に削減する。
上記の手法を組み合わせることで、LiSTはターゲットドメインでの数ショット学習のモデル性能を向上するだけでなく、モデルメモリフットプリントを削減できる。
本稿では,6つのNLUタスクについて総合的研究を行い,LiSTの有効性を検証した。
その結果,従来の微調整法より35%,プロンプトチューニングより6%改善し,各対象領域からラベル付きサンプルが30個未満で微調整した場合,トレーニング可能なパラメータの数を96%削減した。
関連論文リスト
- Context-aware Prompt Tuning: Advancing In-Context Learning with Adversarial Methods [69.36397993451742]
In this work introduced Context-aware Prompt Tuning (CPT) - ICL, PT, and adversarial attack。
入力および出力フォーマットのユニークな構造を考慮して、特定のコンテキストトークンを変更する。
敵の攻撃にインスパイアされた我々は、損失を最大化するのではなく、最小化に焦点をあてて、コンテキストに存在するラベルに基づいて入力を調整する。
論文 参考訳(メタデータ) (2024-10-22T17:45:47Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - Uncertainty-aware Parameter-Efficient Self-training for Semi-supervised
Language Understanding [38.11411155621616]
我々は,主に半教師あり学習の手法として,自己学習について研究している。
我々は,新しい不確かさを意識した自己学習フレームワークであるUPETを紹介する。
UPETは性能と効率の面で大幅に向上したことを示す。
論文 参考訳(メタデータ) (2023-10-19T02:18:29Z) - Distilling Step-by-Step! Outperforming Larger Language Models with Less
Training Data and Smaller Model Sizes [91.58845026796149]
大規模言語モデルを上回る小さなモデルを訓練する新しいメカニズムであるDistilling Step-by-stepを導入する。
4つのNLPベンチマークで3つの結果を得た。
論文 参考訳(メタデータ) (2023-05-03T17:50:56Z) - Tuning Language Models as Training Data Generators for
Augmentation-Enhanced Few-Shot Learning [30.65315081964461]
プレトレーニング言語モデル(PLM)を用いて、異なる視点から数発の学習を学習する。
まず,数発のサンプルに対して自己回帰型PLMをチューニングし,それをジェネレータとして使用して,大量の新規トレーニングサンプルを合成する。
我々のアプローチであるFewGenは、GLUEベンチマークの7つの分類タスクに対して、既存の数ショット学習方法よりも総合的に優れた結果が得られる。
論文 参考訳(メタデータ) (2022-11-06T06:46:47Z) - LST: Ladder Side-Tuning for Parameter and Memory Efficient Transfer
Learning [82.93130407930762]
大規模な事前訓練されたモデルのパラメータセット全体を更新するのはコストがかかる。
PETL技術は、トレーニング済みのバックボーンネットワーク内のパラメータの小さなサブセットを更新して、新しいタスクを実行できる。
本稿では,学習用メモリの必要量を大幅に削減するPETL技術であるLadder Side-Tuning (LST)を提案する。
論文 参考訳(メタデータ) (2022-06-13T23:51:56Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - AttentionLite: Towards Efficient Self-Attention Models for Vision [9.957033392865982]
本稿では,リソース制約のあるアプリケーションに対して,パラメータのクラスを生成・計算するための新しいフレームワークである attentionliteable を提案する。
計算量の多い教師から知識を同時蒸留でき、同時に学生モデルを1回の訓練パスで刈り取ることができる。
論文 参考訳(メタデータ) (2020-12-21T17:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。