論文の概要: Exploring Low-dimensional Intrinsic Task Subspace via Prompt Tuning
- arxiv url: http://arxiv.org/abs/2110.07867v1
- Date: Fri, 15 Oct 2021 05:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:11:42.022606
- Title: Exploring Low-dimensional Intrinsic Task Subspace via Prompt Tuning
- Title(参考訳): プロンプトチューニングによる低次元固有タスクサブスペースの探索
- Authors: Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan
Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou
- Abstract要約: 本研究では,事前学習型言語モデル(PLM)が普遍表現を学習し,異なる幅広いNLPタスクに効果的に適用する方法について検討する。
実験では,100個のランダムタスクを持つ5次元部分空間において,5つの自由パラメータをチューニングするだけで,全プロンプトチューニング性能の87%と65%を回復できることがわかった。
- 参考スコア(独自算出の注目度): 70.76016793057283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can pre-trained language models (PLMs) learn universal representations
and effectively adapt to broad NLP tasks differing a lot superficially? In this
work, we empirically find evidences indicating that the adaptations of PLMs to
various tasks can be reparameterized as optimizing only a few free parameters
in a common low-dimensional intrinsic task subspace, which may help us
understand why PLMs could easily adapt to various NLP tasks with small-scale
data. Specifically, to find such a subspace and examine its universality, we
resort to the recent success of prompt tuning and decompose the soft prompts of
multiple NLP tasks into the same low-dimensional nonlinear subspace, then we
learn to adapt the PLM to unseen tasks or data by only tuning parameters in the
subspace. We dub this pipeline as intrinsic prompt tuning (IPT). In
experiments, we study diverse few-shot NLP tasks and surprisingly find that in
a 5-dimensional subspace found with 100 random tasks, by only tuning 5 free
parameters, we can recover 87% and 65% of the full prompt tuning performance
for 100 seen tasks (using different training data) and 20 unseen tasks,
respectively, showing great generalization ability of the found intrinsic task
subspace. Besides being an analysis tool, IPT could further bring practical
benefits, such as improving the prompt tuning stability.
- Abstract(参考訳): プレトレーニング言語モデル(PLM)は、どのように普遍表現を学習し、表層的に異なる幅広いNLPタスクに効果的に適応できるか?
本研究では, PLM の様々なタスクへの適応が, 共通低次元内在的タスク部分空間において, 少数の自由パラメータのみを最適化するものとして再パラメータ化可能であることを示す証拠を実証的に発見する。
具体的には、そのような部分空間を見つけ、その普遍性を調べるために、複数のNLPタスクのソフトプロンプトを同じ低次元の非線形部分空間に分解し、サブ空間内のパラメータのみをチューニングすることで、PLMを未確認のタスクやデータに適用することを学ぶ。
私たちはこのパイプラインを本質的なプロンプトチューニング(IPT)としています。
実験では,多種多様なnlpタスクを調査し,100個のランダムタスクを持つ5次元サブスペースにおいて、5つの自由パラメータのみをチューニングすることにより,100個の参照タスク(異なるトレーニングデータを用いて)と20個の未知覚タスクの完全なプロンプトチューニング性能の87%と65%をそれぞれ回復でき,検出された固有タスクサブスペースの優れた一般化能力を示す。
iptは分析ツールであると同時に,迅速なチューニング安定性の向上など,実用的なメリットも期待できる。
関連論文リスト
- Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific
Subspaces of Pre-trained Language Models [16.28794184086409]
事前訓練された言語モデル(PLM)は過度にパラメータ化され、かなりの冗長性を持つことが知られている。
本稿では,タスク固有の部分空間の発見という新たな視点から,再パラメータ化と微調整の問題を考察する。
鍵となる発見は、PLMは少数の自由パラメータを持つ部分空間で効果的に微調整できることである。
論文 参考訳(メタデータ) (2023-05-27T11:16:26Z) - Dynamic Prompting: A Unified Framework for Prompt Tuning [33.175097465669374]
本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
論文 参考訳(メタデータ) (2023-03-06T06:04:46Z) - SPT: Semi-Parametric Prompt Tuning for Multitask Prompted Learning [28.29889045842277]
マルチタスクによる学習は,さまざまなタスクセットを一度に一般化する上で有効だ。
マルチタスク学習のための半パラメトリックなプロンプトチューニング手法であるSPTを提案する。
論文 参考訳(メタデータ) (2022-12-21T11:18:09Z) - AdaTask: A Task-aware Adaptive Learning Rate Approach to Multi-task
Learning [19.201899503691266]
このパラメータ上の各タスクの総更新によって、パラメータのタスク支配度を測定する。
本稿では,各タスクの強調勾配と学習率を分離するタスクワイド適応学習率アプローチであるAdaTaskを提案する。
コンピュータビジョンとレコメンダシステムMTLデータセットの実験は、AdaTaskが支配的なタスクのパフォーマンスを大幅に改善することを示した。
論文 参考訳(メタデータ) (2022-11-28T04:24:38Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Attentional Mixtures of Soft Prompt Tuning for Parameter-efficient
Multi-task Knowledge Sharing [53.399742232323895]
ATTEMPTは、新しいモジュラー、マルチタスク、パラメータ効率の言語モデル(LM)チューニングアプローチである。
異なるタスク間で伝達される知識をソフトプロンプトの混合によって組み合わせ、元のLMをそのまま維持する。
パラメータ効率(例えば、微調整よりも1,600倍少ないパラメータを更新)であり、マルチタスク学習と柔軟な拡張を可能にする。
論文 参考訳(メタデータ) (2022-05-24T10:48:33Z) - Analysis and Prediction of NLP Models Via Task Embeddings [25.311690222754454]
我々は101ドルのNLPタスクのコレクションであるMetaEvalを提案する。
学習した埋め込みを条件にしながら、単一のトランスフォーマーをすべてのMetaEvalタスクに共同で適合させます。
結果として生じるタスクの埋め込みは、タスクの空間の新たな分析を可能にする。
論文 参考訳(メタデータ) (2021-12-10T16:23:24Z) - Sample Efficient Linear Meta-Learning by Alternating Minimization [74.40553081646995]
低次元部分空間と回帰器を交互に学習する簡易交互最小化法(MLLAM)について検討する。
定数部分空間次元に対して、MLLAMはタスクあたり$Omega(log d)$サンプルしか必要とせず、ほぼ最適推定誤差が得られることを示す。
MLLAMと同様の強力な統計的保証を保証する新しいタスクサブセット選択スキームを提案する。
論文 参考訳(メタデータ) (2021-05-18T06:46:48Z) - Parameter-Efficient Transfer Learning with Diff Pruning [108.03864629388404]
diff pruningは、プリトレイン・ファインチューンフレームワーク内でパラメータ効率の高い転送学習を可能にするシンプルなアプローチです。
diff pruningで微調整されたモデルは、GLUEベンチマークで完全に微調整されたベースラインのパフォーマンスと一致します。
論文 参考訳(メタデータ) (2020-12-14T12:34:01Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。