論文の概要: Adapter-X: A Novel General Parameter-Efficient Fine-Tuning Framework for Vision
- arxiv url: http://arxiv.org/abs/2406.03051v2
- Date: Thu, 6 Jun 2024 02:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 13:01:03.607035
- Title: Adapter-X: A Novel General Parameter-Efficient Fine-Tuning Framework for Vision
- Title(参考訳): Adapter-X:視覚のためのパラメータ効率の良いファインチューニングフレームワーク
- Authors: Minglei Li, Peng Ye, Yongqi Huang, Lin Zhang, Tao Chen, Tong He, Jiayuan Fan, Wanli Ouyang,
- Abstract要約: 本稿では,2次元画像と3次元点雲の微調整を改善するためのAdapter-Xという新しいフレームワークを提案する。
2D画像と3Dポイントの雲のモードで完全な微調整をし、パラメータが大幅に少ない、すなわち2Dと3Dの分類タスクにおいて、オリジナルのトレーニング可能なパラメータのわずか0.20%と1.88%で、初めて性能を上回った。
- 参考スコア(独自算出の注目度): 52.80792724919329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameter-efficient fine-tuning (PEFT) has become increasingly important as foundation models continue to grow in both popularity and size. Adapter has been particularly well-received due to their potential for parameter reduction and adaptability across diverse tasks. However, striking a balance between high efficiency and robust generalization across tasks remains a challenge for adapter-based methods. We analyze existing methods and find that: 1) parameter sharing is the key to reducing redundancy; 2) more tunable parameters, dynamic allocation, and block-specific design are keys to improving performance. Unfortunately, no previous work considers all these factors. Inspired by this insight, we introduce a novel framework named Adapter-X. First, a Sharing Mixture of Adapters (SMoA) module is proposed to fulfill token-level dynamic allocation, increased tunable parameters, and inter-block sharing at the same time. Second, some block-specific designs like Prompt Generator (PG) are introduced to further enhance the ability of adaptation. Extensive experiments across 2D image and 3D point cloud modalities demonstrate that Adapter-X represents a significant milestone as it is the first to outperform full fine-tuning in both 2D image and 3D point cloud modalities with significantly fewer parameters, i.e., only 0.20% and 1.88% of original trainable parameters for 2D and 3D classification tasks. Our code will be publicly available.
- Abstract(参考訳): パラメータ効率細調整(PEFT)は、ファンデーションモデルが人気とサイズの両方で成長を続けるにつれ、ますます重要になっている。
アダプタは、パラメータの削減と様々なタスクへの適応性の可能性から、特によく認識されている。
しかし、タスク間の高効率性と堅牢な一般化のバランスを崩すことは、アダプタベースの手法の課題である。
既存の手法を分析し、それを見つける。
1) パラメータ共有は冗長性を低下させる鍵である。
2) よりチューニング可能なパラメータ、動的アロケーション、ブロック固有の設計がパフォーマンス向上の鍵となります。
残念ながら、これらの要因をすべて考慮した以前の研究は行われていない。
この知見に触発されて、Adapter-Xという新しいフレームワークを紹介します。
まず、トークンレベルの動的アロケーション、チューナブルパラメータの増加、ブロック間共有を同時に実現するために、Sharing Mixture of Adapters (SMoA)モジュールを提案する。
第2に、プロンプトジェネレータ(PG)のようなブロック固有の設計が導入され、適応性をさらに向上する。
2Dイメージと3Dポイントクラウドモダリティにわたる大規模な実験は、Adapter-Xが2Dイメージと3Dポイントクラウドモダリティの両方で完全な微調整を初めて上回り、2Dと3Dの分類タスクのトレーニング可能なパラメータの0.20%と1.88%に過ぎなかったことから、重要なマイルストーンであることを示している。
私たちのコードは公開されます。
関連論文リスト
- Dynamic Tuning Towards Parameter and Inference Efficiency for ViT Adaptation [67.13876021157887]
動的チューニング(DyT)は、ViT適応のためのパラメータと推論効率を改善するための新しいアプローチである。
DyTは既存のPEFT法と比較すると、同等またはそれ以上の性能を実現している。
論文 参考訳(メタデータ) (2024-03-18T14:05:52Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Consolidator: Mergeable Adapter with Grouped Connections for Visual
Adaptation [53.835365470800916]
視覚変換器の知識を効率よく効果的に伝達する方法を示す。
調整可能なパラメータの小さなセットを追加して,事前学習モデルを変更するコンソリケータを提案する。
我々のコンソリエータは、0.35%のパラメータで完全な微調整よりも最大7.56の精度で到達できる。
論文 参考訳(メタデータ) (2023-04-30T23:59:02Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large
Language Models [119.7093605087114]
大規模なトレーニング済み言語モデルをダウンストリームタスクに微調整するには、数億のパラメータを更新する必要がある。
これにより、各タスクのモデルの重みの大量コピーを格納するためのサービスコストが増大するだけでなく、数発のタスク適応中に不安定を示す。
パラメータや計算コストを2つの重要な手法で増大させることなく、アダプタ容量を改善するための新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2022-05-24T23:41:22Z) - Augmentations: An Insight into their Effectiveness on Convolution Neural
Networks [0.0]
モデルの堅牢性を高める能力は、viz-a-viz、モデルアーキテクチャ、拡張のタイプという2つの要因に依存します。
本稿では,3x3および奥行き分離可能な畳み込みを用いたパラメータが,異なる拡張手法に与える影響について検討する。
論文 参考訳(メタデータ) (2022-05-09T06:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。