論文の概要: Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning
- arxiv url: http://arxiv.org/abs/2102.06605v1
- Date: Fri, 12 Feb 2021 16:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:17:43.480273
- Title: Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning
- Title(参考訳): コントラスト正規化ファインチューニングによるコントラスト自己スーパービジョン視覚モデルのパワーの解放
- Authors: Yifan Zhang, Bryan Hooi, Dapeng Hu, Jian Liang, Jiashi Feng
- Abstract要約: コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
- 参考スコア(独自算出の注目度): 94.35586521144117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive self-supervised learning (CSL) leverages unlabeled data to train
models that provide instance-discriminative visual representations uniformly
scattered in the feature space. In deployment, the common practice is to
directly fine-tune models with the cross-entropy loss, which however may not be
an optimal strategy. Although cross-entropy tends to separate inter-class
features, the resulted models still have limited capability of reducing
intra-class feature scattering that inherits from pre-training, and thus may
suffer unsatisfactory performance on downstream tasks. In this paper, we
investigate whether applying contrastive learning to fine-tuning would bring
further benefits, and analytically find that optimizing the supervised
contrastive loss benefits both class-discriminative representation learning and
model optimization during fine-tuning. Inspired by these findings, we propose
Contrast-regularized tuning (Core-tuning), a novel approach for fine-tuning
contrastive self-supervised visual models. Instead of simply adding the
contrastive loss to the objective of fine-tuning, Core-tuning also generates
hard sample pairs for more effective contrastive learning through a novel
feature mixup strategy, as well as improves the generalizability of the model
by smoothing the decision boundary via mixed samples. Extensive experiments on
image classification and semantic segmentation verify the effectiveness of
Core-tuning.
- Abstract(参考訳): コントラスト型自己教師学習(CSL)は、ラベルのないデータを利用して、特徴空間に均一に散在するインスタンス識別視覚表現を提供するモデルを訓練する。
デプロイメントでは、クロスエントロピー損失を伴うモデルを直接微調整することが一般的な方法であるが、最適戦略ではないかもしれない。
クロスエントロピーはクラス間の機能を分離する傾向にあるが、得られたモデルはクラス内の機能分散を減らす能力が限られているため、下流のタスクでは不十分なパフォーマンスを損なう可能性がある。
本稿では,コントラスト学習を微調整に適用することでさらにメリットが得られるかを検討するとともに,教師付きコントラスト損失の最適化は,クラス判別表現学習と微調整時のモデル最適化の両方に有益であることを示す。
これらの知見に触発されて,コントラスト規則化チューニング(Core-tuning)を提案する。
コントラスト損失を微調整の目的に加える代わりに、Core-tuningは、新しい特徴混成戦略を通じてより効果的なコントラスト学習のためのハードサンプルペアを生成するとともに、混合サンプルを介して決定境界を滑らかにすることでモデルの一般化性を向上させる。
画像分類とセマンティックセグメンテーションに関する広範な実験は、コアチューニングの有効性を検証する。
関連論文リスト
- Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation [24.794022951873156]
我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
論文 参考訳(メタデータ) (2022-10-18T22:33:12Z) - PointACL:Adversarial Contrastive Learning for Robust Point Clouds
Representation under Adversarial Attack [73.3371797787823]
逆比較学習(Adversarial contrastive learning, ACL)は、事前学習されたモデルの堅牢性を改善する効果的な方法と考えられている。
本稿では,自己指導型コントラスト学習フレームワークを逆向きに学習するために,ロバストな認識損失関数を提案する。
提案手法であるPointACLを,複数のデータセットを用いた3次元分類と3次元分割を含む下流タスクで検証する。
論文 参考訳(メタデータ) (2022-09-14T22:58:31Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Orthogonal Ensemble Networks for Biomedical Image Segmentation [10.011414604407681]
モデル多様性を明示する新しいフレームワークであるOrthogonal Ensemble Networks (OEN)を紹介する。
提案手法を2つの課題脳病変セグメンテーションタスクでベンチマークする。
実験結果から,本手法はより頑健でよく校正されたアンサンブルモデルを生成することが示された。
論文 参考訳(メタデータ) (2021-05-22T23:44:55Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - On the Benefits of Models with Perceptually-Aligned Gradients [8.427953227125148]
敵攻撃に対する強靭性を示さないモデルにおいても,解釈的かつ知覚的に整合した勾配が存在することを示す。
解釈可能な知覚整合性を持つモデルを活用し、最大摂動境界の低い対角トレーニングがゼロショットおよび弱教師付きローカライゼーションタスクのモデルの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-05-04T14:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。