論文の概要: Attentional Mixtures of Soft Prompt Tuning for Parameter-efficient
Multi-task Knowledge Sharing
- arxiv url: http://arxiv.org/abs/2205.11961v1
- Date: Tue, 24 May 2022 10:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 02:12:01.946004
- Title: Attentional Mixtures of Soft Prompt Tuning for Parameter-efficient
Multi-task Knowledge Sharing
- Title(参考訳): パラメータ効率の高いマルチタスク知識共有のためのソフトプロンプトチューニングの注意点混合
- Authors: Akari Asai, Mohammadreza Salehi, Matthew E. Peters, Hannaneh
Hajishirzi
- Abstract要約: ATTEMPTは、新しいモジュラー、マルチタスク、パラメータ効率の言語モデル(LM)チューニングアプローチである。
異なるタスク間で伝達される知識をソフトプロンプトの混合によって組み合わせ、元のLMをそのまま維持する。
パラメータ効率(例えば、微調整よりも1,600倍少ないパラメータを更新)であり、マルチタスク学習と柔軟な拡張を可能にする。
- 参考スコア(独自算出の注目度): 53.399742232323895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces ATTEMPT (Attentional Mixture of Prompt Tuning), a new
modular, multi-task, and parameter-efficient language model (LM) tuning
approach that combines knowledge transferred across different tasks via a
mixture of soft prompts while keeping original LM unchanged. ATTEMPT
interpolates a set of prompts trained on large-scale source tasks and a newly
initialized target task prompt using instance-wise attention computed by a
lightweight sub-network trained on multiple target tasks. ATTEMPT is
parameter-efficient (e.g., updates 1,600 times fewer parameters than
fine-tuning) and enables multi-task learning and flexible extensions;
importantly, it is also more interpretable because it demonstrates which source
tasks affect the final model decision on target tasks. Experimental results
across 17 diverse datasets show that ATTEMPT improves prompt tuning by up to a
22% absolute performance gain and outperforms or matches fully fine-tuned or
other parameter-efficient tuning approaches that use over ten times more
parameters.
- Abstract(参考訳): Attentional Mixture of Prompt Tuning (ATTEMPT, Attentional Mixture of Prompt Tuning)は、新しいモジュラー、マルチタスク、パラメータ効率のよい言語モデル(LM)のチューニング手法である。
ATTEMPTは、大規模ソースタスクで訓練された一連のプロンプトと、複数のターゲットタスクで訓練された軽量サブネットワークによって計算されたインスタンスワイドアテンションを用いて、新しく初期化されたターゲットタスクプロンプトを補間する。
ATTEMPTはパラメータ効率が高く(例えば、微調整よりも1,600倍少ないパラメータを更新)、マルチタスク学習と柔軟な拡張を可能にする。
17の多様なデータセットにまたがる実験結果から、ATTEMPTは最大22%の絶対的なパフォーマンス向上によってプロンプトチューニングを改善し、完全な微調整や他の10倍以上のパラメータを使用するパラメータ効率の高いチューニングアプローチに適合することが示された。
関連論文リスト
- Enhancing Few-Shot Transfer Learning with Optimized Multi-Task Prompt Tuning through Modular Prompt Composition [0.0]
マルチタスクのプロンプトチューニングは、その固有のモジュラリティと、パラメータ効率のよい転送学習を向上する可能性に対して、かなりの注意を払っている。
本稿では,マルチタスク環境において,対応するプロンプト間の知識伝達を容易にすることで,複数のタスクのパフォーマンスを解析・改善することを目的とする。
論文 参考訳(メタデータ) (2024-08-23T17:01:51Z) - MoDE: Effective Multi-task Parameter Efficient Fine-Tuning with a Mixture of Dyadic Experts [6.245113492272563]
Mixture of Dyadic Experts (MoDE) は効率的なマルチタスク適応のための新しい設計である。
我々の設計はよりきめ細かい混合を可能にし、それによってモデルの複数のタスクを共同で処理する能力を高めます。
論文 参考訳(メタデータ) (2024-08-02T18:05:10Z) - Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning [43.639430661322585]
マルチタスク・プロンプト・チューニング(MPT)を提案する。
MPTは複数のタスク固有のソースプロンプトから知識を抽出することで単一の転送可能なプロンプトを学習する。
次に、この共有プロンプトに対する乗算的低ランク更新を学習し、各下流ターゲットタスクに効率よく適応する。
論文 参考訳(メタデータ) (2023-03-06T03:25:59Z) - AdaTask: A Task-aware Adaptive Learning Rate Approach to Multi-task
Learning [19.201899503691266]
このパラメータ上の各タスクの総更新によって、パラメータのタスク支配度を測定する。
本稿では,各タスクの強調勾配と学習率を分離するタスクワイド適応学習率アプローチであるAdaTaskを提案する。
コンピュータビジョンとレコメンダシステムMTLデータセットの実験は、AdaTaskが支配的なタスクのパフォーマンスを大幅に改善することを示した。
論文 参考訳(メタデータ) (2022-11-28T04:24:38Z) - Multitask Vision-Language Prompt Tuning [103.5967011236282]
マルチタスク視覚言語プロンプトチューニング(MV)を提案する。
MVはクロスタスクの知識を視覚言語モデルの迅速なチューニングに取り入れている。
20個の視覚タスクの結果、提案手法は全ての単一タスクのベースライン・プロンプト・チューニング法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T18:41:44Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer [7.2462572989580405]
本稿では,SPoT: Soft Prompt Transferと呼ばれる新しいプロンプトベーストランスファー学習手法を提案する。
SPoTは多くのタスクでPromptTuningの性能を大幅に向上させることを示す。
また,26のNLPタスクと160のソース・ターゲットタスクを組み合わせたタスク転送性についても大規模に検討した。
論文 参考訳(メタデータ) (2021-10-15T07:35:58Z) - Using a thousand optimization tasks to learn hyperparameter search
strategies [53.318615663332274]
本稿では、ニューラルネットワークのトレーニングと評価に使用するニューラルネットワークのデータセットであるTaskSetを紹介する。
TaskSetはそのサイズと多様性に特有で、完全な接続または畳み込みネットワークによるイメージ分類から変分オートエンコーダ、さまざまなデータセット上の非ボリューム保存フローまで、数千以上のタスクを含んでいる。
論文 参考訳(メタデータ) (2020-02-27T02:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。