論文の概要: Avoiding Feature Suppression in Contrastive Learning: Learning What Has
Not Been Learned Before
- arxiv url: http://arxiv.org/abs/2402.11816v1
- Date: Mon, 19 Feb 2024 04:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:27:06.402291
- Title: Avoiding Feature Suppression in Contrastive Learning: Learning What Has
Not Been Learned Before
- Title(参考訳): コントラスト学習における特徴抑制の回避--これまで学ばなかったことを学ぶ
- Authors: Jihai Zhang, Xiang Lan, Xiaoye Qu, Yu Cheng, Mengling Feng, Bryan Hooi
- Abstract要約: 我々は,特徴抑圧問題を緩和するために,新しい多段階コントラスト学習(MCL)フレームワークを開発した。
MCLは、十分に学習された機能を維持しながら、前段階では検討されていない新機能を徐々に学習している。
- 参考スコア(独自算出の注目度): 47.95399695465355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised contrastive learning has emerged as a powerful method for
obtaining high-quality representations from unlabeled data. However, feature
suppression has recently been identified in standard contrastive learning
($e.g.$, SimCLR, CLIP): in a single end-to-end training stage, the contrastive
model captures only parts of the shared information across contrasting views,
while ignore the other potentially useful information. With feature
suppression, contrastive models often fail to learn sufficient representations
capable for various downstream tasks. To mitigate the feature suppression
problem and ensure the contrastive model to learn comprehensive
representations, we develop a novel Multistage Contrastive Learning (MCL)
framework. Unlike standard contrastive learning that often result in feature
suppression, MCL progressively learn new features that have not been explored
in the previous stage, while maintaining the well-learned features. Extensive
experiments conducted on various publicly available benchmarks validate the
effectiveness of our proposed framework. In addition, we demonstrate that the
proposed MCL can be adapted to a variety of popular contrastive learning
backbones and boost their performance by learning features that could not be
gained from standard contrastive learning procedures.
- Abstract(参考訳): ラベルのないデータから高品質な表現を得るための強力な方法として,自己指導型コントラスト学習が登場した。
しかし、最近、標準のコントラスト学習(例えば、SimCLR、CLIP)で機能抑制が特定され、単一のエンドツーエンドのトレーニング段階において、コントラストモデルはコントラストビューをまたいだ共有情報の一部のみをキャプチャし、他の潜在的に有用な情報を無視する。
特徴抑圧では、コントラッシブモデルは様々な下流タスクに使える十分な表現を学ばないことが多い。
特徴抑圧問題を緩和し、コントラストモデルによる総合表現の学習を確実にするために、新しい多段階コントラスト学習(mcl)フレームワークを開発した。
しばしば機能抑制をもたらす標準的なコントラスト学習とは異なり、mclは、よく学習された機能を維持しながら、前段階から検討されていない新機能を徐々に学習する。
様々な公開ベンチマークで実施した大規模な実験により,提案フレームワークの有効性が検証された。
さらに,提案したMCLは,一般的なコントラスト学習のバックボーンに適応し,標準のコントラスト学習手順では得られない特徴を学習によって向上することができることを示した。
関連論文リスト
- CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [56.199779065855004]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Enhancing Vision-Language Few-Shot Adaptation with Negative Learning [11.545127156146368]
我々は,タスク固有の知識をより効率的に活用するための,シンプルで効果的な否定的学習手法SimNLを提案する。
そこで本研究では,雑音を緩和するために,プラグアンドプレイによる数発のインスタンス再重み付け手法を提案する。
提案したSimNLは,少数ショット学習とドメイン一般化の両タスクにおいて,既存の最先端手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-19T17:59:39Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Understanding Multimodal Contrastive Learning and Incorporating Unpaired
Data [19.72282903349282]
マルチモーダル・コントラッシブ・ラーニング(MMCL)における非線形損失関数の一般クラスを示す。
MMCLの特徴学習能力は,各モダリティに適用される一助的コントラスト学習能力よりも優れていることを示す。
追加の未ペアデータにアクセスできる場合、追加の未ペアデータを含む新たなMMCL損失を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:11:05Z) - PointACL:Adversarial Contrastive Learning for Robust Point Clouds
Representation under Adversarial Attack [73.3371797787823]
逆比較学習(Adversarial contrastive learning, ACL)は、事前学習されたモデルの堅牢性を改善する効果的な方法と考えられている。
本稿では,自己指導型コントラスト学習フレームワークを逆向きに学習するために,ロバストな認識損失関数を提案する。
提案手法であるPointACLを,複数のデータセットを用いた3次元分類と3次元分割を含む下流タスクで検証する。
論文 参考訳(メタデータ) (2022-09-14T22:58:31Z) - DUET: Cross-modal Semantic Grounding for Contrastive Zero-shot Learning [37.48292304239107]
本稿では, DUET という変換器を用いたエンドツーエンドZSL手法を提案する。
画像からセマンティック属性を分離するモデルの能力を調べるために,モーダルなセマンティックグラウンドネットワークを開発した。
DUETは、しばしば最先端のパフォーマンスを達成することができ、そのコンポーネントは有効であり、予測は解釈可能である。
論文 参考訳(メタデータ) (2022-07-04T11:12:12Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。