論文の概要: DR-Tune: Improving Fine-tuning of Pretrained Visual Models by
Distribution Regularization with Semantic Calibration
- arxiv url: http://arxiv.org/abs/2308.12058v1
- Date: Wed, 23 Aug 2023 10:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:25:48.382575
- Title: DR-Tune: Improving Fine-tuning of Pretrained Visual Models by
Distribution Regularization with Semantic Calibration
- Title(参考訳): dr-tune:セマンティクスキャリブレーションによる分布正規化による事前学習視覚モデルの微調整の改善
- Authors: Nan Zhou, Jiaxin Chen, Di Huang
- Abstract要約: セマンティックキャリブレーションを用いた分布正規化(DR-Tune)という,新しい微調整フレームワークを提案する。
DR-Tuneは、下流タスクヘッドを強制して、事前訓練された特徴分布の分類誤差を低減することで、分散正則化を採用する。
セマンティックドリフトによる干渉を軽減するため,セマンティックキャリブレーション(SC)モジュールを開発した。
- 参考スコア(独自算出の注目度): 38.4461170690033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visual models pretrained on large-scale benchmarks encode general
knowledge and prove effective in building more powerful representations for
downstream tasks. Most existing approaches follow the fine-tuning paradigm,
either by initializing or regularizing the downstream model based on the
pretrained one. The former fails to retain the knowledge in the successive
fine-tuning phase, thereby prone to be over-fitting, and the latter imposes
strong constraints to the weights or feature maps of the downstream model
without considering semantic drift, often incurring insufficient optimization.
To deal with these issues, we propose a novel fine-tuning framework, namely
distribution regularization with semantic calibration (DR-Tune). It employs
distribution regularization by enforcing the downstream task head to decrease
its classification error on the pretrained feature distribution, which prevents
it from over-fitting while enabling sufficient training of downstream encoders.
Furthermore, to alleviate the interference by semantic drift, we develop the
semantic calibration (SC) module to align the global shape and class centers of
the pretrained and downstream feature distributions. Extensive experiments on
widely used image classification datasets show that DR-Tune consistently
improves the performance when combing with various backbones under different
pretraining strategies. Code is available at:
https://github.com/weeknan/DR-Tune.
- Abstract(参考訳): 大規模なベンチマークで事前訓練されたビジュアルモデルは、一般的な知識を符号化し、下流タスクのためのより強力な表現を構築するのに有効である。
既存のアプローチのほとんどは、事前学習したモデルに基づいて下流モデルを初期化または正規化することで、微調整パラダイムに従っている。
前者は連続した微調整フェーズの知識を保持できず、過剰にフィットしがちであり、後者は意味的ドリフトを考慮せずに下流モデルの重みや特徴マップに強い制約を課す。
これらの問題に対処するために,意味キャリブレーションを用いた分布正規化(DR-Tune)という,新しい微調整フレームワークを提案する。
下流タスクヘッドを強制することにより、事前訓練された特徴分布の分類誤差を低減し、下流エンコーダの十分なトレーニングを可能にしながら、過剰フィッティングを防止する分散正規化を採用する。
さらに,セマンティクスドリフトによる干渉を軽減するために,事前学習された特徴分布と下流特徴分布の全体形状とクラス中心を整合させるセマンティクスキャリブレーション(sc)モジュールを開発した。
広範に使用されている画像分類データセットの大規模な実験により、DR-Tuneは様々なバックボーンと異なる事前学習戦略の下で組み合わせた場合のパフォーマンスを一貫して改善することが示された。
コードは、https://github.com/weeknan/DR-Tune.comで入手できる。
関連論文リスト
- Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - FD-Align: Feature Discrimination Alignment for Fine-tuning Pre-Trained
Models in Few-Shot Learning [21.693779973263172]
本稿では,特徴識別アライメント(FD-Align)と呼ばれる微調整手法を提案する。
本手法は,突発的特徴の一貫性を保ち,モデルの一般化可能性を高めることを目的としている。
一度微調整すると、モデルは既存のメソッドとシームレスに統合され、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-23T17:12:01Z) - Generalized Logit Adjustment: Calibrating Fine-tuned Models by Removing Label Bias in Foundation Models [75.9543301303586]
CLIPのようなファンデーションモデルは、追加のトレーニングデータなしで、さまざまなタスクでゼロショット転送を可能にする。
微調整やアンサンブルも一般的に下流のタスクに合うように採用されている。
しかし、先行研究は基礎モデルに固有のバイアスを見落としていると論じる。
論文 参考訳(メタデータ) (2023-10-12T08:01:11Z) - Distributionally Robust Post-hoc Classifiers under Prior Shifts [31.237674771958165]
本研究では,クラスプライヤやグループプライヤの分布の変化による変化に頑健なトレーニングモデルの問題点について検討する。
本稿では,事前学習モデルからの予測に対するスケーリング調整を行う,非常に軽量なポストホック手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T00:54:57Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Improved Visual Fine-tuning with Natural Language Supervision [36.250244364023665]
視覚的事前学習モデルの微調整は、大規模事前学習データからの意味情報を活用することができる。
術前訓練した背骨における破折性忘れの問題は、微調整のために広く研究されている。
固定テキスト分類器から得られた参照分布を導入し,学習した視覚分類器の正規化を支援する。
論文 参考訳(メタデータ) (2023-04-04T03:08:02Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。