論文の概要: Improving Visual Prompt Tuning by Gaussian Neighborhood Minimization for Long-Tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2410.21042v1
- Date: Mon, 28 Oct 2024 13:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:22:19.662793
- Title: Improving Visual Prompt Tuning by Gaussian Neighborhood Minimization for Long-Tailed Visual Recognition
- Title(参考訳): 長期視覚認識のためのガウス近傍最小化による視覚プロンプトチューニングの改善
- Authors: Mengke Li, Ye Liu, Yang Lu, Yiqun Zhang, Yiu-ming Cheung, Hui Huang,
- Abstract要約: モデル一般化を改善するためにランダムSAMプロンプトチューニング(RSAM-PT)と呼ばれる新しい手法を提案する。
我々は, 遅延再重み付け方式を用いて, テールクラス標本の意義を高める。
RSAM-PTは、90.3%、76.5%、50.1%の最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 39.057791275055074
- License:
- Abstract: Long-tail learning has garnered widespread attention and achieved significant progress in recent times. However, even with pre-trained prior knowledge, models still exhibit weaker generalization performance on tail classes. The promising Sharpness-Aware Minimization (SAM) can effectively improve the generalization capability of models by seeking out flat minima in the loss landscape, which, however, comes at the cost of doubling the computational time. Since the update rule of SAM necessitates two consecutive (non-parallelizable) forward and backpropagation at each step. To address this issue, we propose a novel method called Random SAM prompt tuning (RSAM-PT) to improve the model generalization, requiring only one-step gradient computation at each step. Specifically, we search for the gradient descent direction within a random neighborhood of the parameters during each gradient update. To amplify the impact of tail-class samples and avoid overfitting, we employ the deferred re-weight scheme to increase the significance of tail-class samples. The classification accuracy of long-tailed data can be significantly improved by the proposed RSAM-PT, particularly for tail classes. RSAM-PT achieves the state-of-the-art performance of 90.3\%, 76.5\%, and 50.1\% on benchmark datasets CIFAR100-LT (IF 100), iNaturalist 2018, and Places-LT, respectively. The source code is temporarily available at https://github.com/Keke921/GNM-PT.
- Abstract(参考訳): ロングテール学習は広く注目を集め、近年は大きな進歩を遂げている。
しかし、事前訓練された事前知識であっても、モデルがテールクラスでより弱い一般化性能を示す。
有望なシャープネス・アウェアの最小化(SAM)は、損失ランドスケープにおける平らな最小値を求めることによって、モデルの一般化能力を効果的に向上させることができるが、計算時間を2倍にするコストがかかる。
SAMの更新ルールは、各ステップで2つの連続的な(非並列化可能)フォワードとバックプロパゲーションを必要とする。
そこで本研究では,モデル一般化を改善するためにランダムSAMプロンプトチューニング(RSAM-PT)と呼ばれる新しい手法を提案する。
具体的には、各勾配更新中にパラメータのランダムな近傍で勾配降下方向を探索する。
テールクラスのサンプルの影響を増幅し、オーバーフィッティングを避けるために、テールクラスのサンプルの重要性を高めるために遅延再重み付け方式を用いる。
長い尾データの分類精度は、特に尾クラスのRSAM-PTによって著しく向上することができる。
RSAM-PTは、ベンチマークデータセットCIFAR100-LT (IF 100)、iNaturalist 2018、Places-LTの90.3\%、76.5\%、50.1\%の最先端性能を達成する。
ソースコードはhttps://github.com/Keke921/GNM-PTで一時的に公開されている。
関連論文リスト
- Efficient Sharpness-Aware Minimization for Molecular Graph Transformer Models [42.59948316941217]
シャープネスを意識した最小化(SAM)は、訓練軌道と一般化劣化からシャープな局所最小化を効果的に排除できるため、コンピュータビジョンにおいて注目を集めている。
本稿では、SAMのトレーニングコストを削減し、グラフトランスフォーマーモデルの一般化性能を向上させる、GraphSAMという新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-19T01:03:23Z) - CR-SAM: Curvature Regularized Sharpness-Aware Minimization [8.248964912483912]
Sharpness-Aware Minimization (SAM) は,1段階の勾配上昇を近似として,最悪のケース損失を最小限に抑え,一般化性を高めることを目的としている。
本稿では,トレーニングとテストセットの両面における損失景観の曲率を正確に測定する正規化ヘッセントレースを提案する。
特に、損失景観の過度な非線形性に対抗するために、曲率正規化SAM(CR-SAM)を提案する。
論文 参考訳(メタデータ) (2023-12-21T03:46:29Z) - ImbSAM: A Closer Look at Sharpness-Aware Minimization in
Class-Imbalanced Recognition [62.20538402226608]
シャープネス・アウェアの最小化(SAM)は,クラス不均衡条件下での一般化問題に対処できないことを示す。
このボトルネックを克服するために,Im Balanced-SAM (ImbSAM) というクラス認識スムーズネス最適化アルゴリズムを提案する。
我々のImbSAMは、テールクラスと異常に対する顕著なパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2023-08-15T14:46:32Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient Generalization Improvement Guided by Random Weight
Perturbation [24.027159739234524]
Gruesome-aware Minimization (SAM)は、一般化の改善のための一般的なスキームを確立する。
我々は、SAMのネスト勾配を分離するために、フィルタワイズランダムウェイト摂動(RWP)を利用する。
我々は、CIFAR上での非常に競争力のあるパフォーマンスと、ImageNet上での極めて優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-21T14:24:34Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Towards Efficient and Scalable Sharpness-Aware Minimization [81.22779501753695]
内部勾配の上昇を周期的に計算する新しいアルゴリズム LookSAM を提案する。
LookSAMはSAMと同じような精度を実現し、非常に高速である。
Vision Transformer(ViTs)のトレーニングでバッチサイズのスケールアップに成功したのは,私たちが初めてです。
論文 参考訳(メタデータ) (2022-03-05T11:53:37Z) - Sharpness-Aware Minimization for Efficiently Improving Generalization [36.87818971067698]
本稿では,損失値と損失シャープネスを同時に最小化する新しい効果的な手法を提案する。
シャープネス・アウェアの最小化(SAM)は、一様損失の少ない地区にあるパラメータを求める。
SAMは様々なベンチマークデータセットのモデル一般化を改善することを示す実験結果を示す。
論文 参考訳(メタデータ) (2020-10-03T19:02:10Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。