論文の概要: A Comprehensive Analysis of Adapter Efficiency
- arxiv url: http://arxiv.org/abs/2305.07491v1
- Date: Fri, 12 May 2023 14:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:51:31.195153
- Title: A Comprehensive Analysis of Adapter Efficiency
- Title(参考訳): アダプタ効率の包括的解析
- Authors: Nandini Mundra, Sumanth Doddapaneni, Raj Dabre, Anoop Kunchukuttan,
Ratish Puduppully, Mitesh M. Khapra
- Abstract要約: 自然言語理解(NLU)タスクの場合, アダプタのパラメータ効率は, モデル全体の微調整に比べて, 効率向上に寄与しないことを示す。
NLUタスクの適度なサイズのモデルには、アダプタを使うのではなく、完全な微調整やマルチタスクのトレーニングに頼ることを推奨する。
- 参考スコア(独自算出の注目度): 20.63580880344425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapters have been positioned as a parameter-efficient fine-tuning (PEFT)
approach, whereby a minimal number of parameters are added to the model and
fine-tuned. However, adapters have not been sufficiently analyzed to understand
if PEFT translates to benefits in training/deployment efficiency and
maintainability/extensibility. Through extensive experiments on many adapters,
tasks, and languages in supervised and cross-lingual zero-shot settings, we
clearly show that for Natural Language Understanding (NLU) tasks, the parameter
efficiency in adapters does not translate to efficiency gains compared to full
fine-tuning of models. More precisely, adapters are relatively expensive to
train and have slightly higher deployment latency. Furthermore, the
maintainability/extensibility benefits of adapters can be achieved with simpler
approaches like multi-task training via full fine-tuning, which also provide
relatively faster training times. We, therefore, recommend that for moderately
sized models for NLU tasks, practitioners should rely on full fine-tuning or
multi-task training rather than using adapters. Our code is available at
https://github.com/AI4Bharat/adapter-efficiency.
- Abstract(参考訳): アダプタはパラメータ効率のよい微調整(peft)アプローチとして位置づけられており、モデルに最小限のパラメータを追加して微調整する。
しかし、PEFTがトレーニング/デプロイ効率と保守性/拡張性の向上に寄与するかどうかを理解するために、アダプタは十分に分析されていない。
教師付きおよび言語間ゼロショット設定における多くのアダプタ,タスク,言語に関する広範な実験を通じて,自然言語理解(NLU)タスクにおいて,アダプタのパラメータ効率が,モデル全体の微調整に比べて効率向上に寄与しないことを示す。
より正確には、アダプタはトレーニングに比較的高価で、デプロイメントのレイテンシがわずかに高い。
さらに、アダプタの保守性と拡張性の利点は、完全な微調整によるマルチタスクトレーニングのような、よりシンプルなアプローチで実現できる。
したがって、NLUタスクの適度なサイズのモデルでは、アダプタを使うのではなく、完全な微調整やマルチタスクのトレーニングに頼るべきである。
私たちのコードはhttps://github.com/ai4bharat/adapter-efficiencyで利用可能です。
関連論文リスト
- MoSA: Mixture of Sparse Adapters for Visual Efficient Tuning [20.68925288222065]
スパースアダプタの混合(英: Mixture of Sparse Adapters, MoSA)は、新しいアダプタチューニング法である。
MoSAは、余分な計算ストレージオーバーヘッドを伴わずに、標準よりも大幅にパフォーマンスが向上する。
MoSAは、他のAdapter Tuningメソッド、および他のベースラインを大きなマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2023-12-05T17:50:55Z) - MerA: Merging Pretrained Adapters For Few-Shot Learning [71.44422347502409]
モデル融合により,事前学習したアダプタを単一モデルに効率的に組み込むことができるtextbftextttMerging Pretrained Adapters (MerA)を提案する。
2つのPLMの実験では、MerAはシングルアダプタとAdapterFusionの両方と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-30T12:10:17Z) - SparseAdapter: An Easy Approach for Improving the Parameter-Efficiency
of Adapters [96.52807311742198]
我々は、ネットワークプルーニングのレンズを通して、アダプタのパラメータ効率を再検討する。
スパース比が最大80%に達すると、SparseAdapterは標準のAdapterよりも同等あるいは優れたパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2022-10-09T15:28:48Z) - To Adapt or to Fine-tune: A Case Study on Abstractive Summarization [7.353994554197792]
抽象的な要約の分野における最近の進歩は、ゼロからモデルを訓練するのではなく、事前訓練された言語モデルを活用する。
このようなモデルは訓練に適さないため、膨大なオーバーヘッドが伴う。
アダプタの使用が、パフォーマンスの不快な犠牲を伴わずに効率を向上するという点で、要約作業の恩恵を受けるかどうかは不明だ。
論文 参考訳(メタデータ) (2022-08-30T22:48:28Z) - AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large
Language Models [119.7093605087114]
大規模なトレーニング済み言語モデルをダウンストリームタスクに微調整するには、数億のパラメータを更新する必要がある。
これにより、各タスクのモデルの重みの大量コピーを格納するためのサービスコストが増大するだけでなく、数発のタスク適応中に不安定を示す。
パラメータや計算コストを2つの重要な手法で増大させることなく、アダプタ容量を改善するための新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2022-05-24T23:41:22Z) - AdapterBias: Parameter-efficient Token-dependent Representation Shift
for Adapters in NLP Tasks [55.705355299065474]
数百万のパラメータを持つトランスフォーマーベースの事前学習モデルは、大きなストレージを必要とする。
近年のアプローチでは、アダプタをトレーニングすることでこの欠点に対処しているが、それでも比較的多くのパラメータを必要とする。
本研究では,驚くほどシンプルで効果的なアダプタアーキテクチャであるAdapterBiasを提案する。
論文 参考訳(メタデータ) (2022-04-30T16:49:41Z) - VL-Adapter: Parameter-Efficient Transfer Learning for
Vision-and-Language Tasks [71.40656211497162]
近年、大規模なテキストコーパスで事前訓練された微調整言語モデルにより、視覚と言語(V&L)タスクが大幅に改善されている。
本稿では,VL-BARTやVL-T5などのV&Lモデルに対して,アダプタに基づくパラメータ効率変換学習手法を提案する。
提案手法は, モデル全体の微調整性能に適合することを示した。
論文 参考訳(メタデータ) (2021-12-13T17:35:26Z) - AdapterDrop: On the Efficiency of Adapters in Transformers [53.845909603631945]
大規模に事前訓練されたトランスフォーマーモデルは、微調整に計算コストがかかり、推論に時間がかかり、大きなストレージ要求がある。
最近のアプローチでは、より小さなモデルをトレーニングし、モデルサイズを動的に削減し、軽量アダプタをトレーニングすることで、これらの欠点に対処している。
論文 参考訳(メタデータ) (2020-10-22T17:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。