論文の概要: Learning the Unlearned: Mitigating Feature Suppression in Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2402.11816v2
- Date: Mon, 11 Mar 2024 06:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:11:57.252388
- Title: Learning the Unlearned: Mitigating Feature Suppression in Contrastive
Learning
- Title(参考訳): 未学習の学習:コントラスト学習における特徴抑制の緩和
- Authors: Jihai Zhang, Xiang Lan, Xiaoye Qu, Yu Cheng, Mengling Feng, Bryan Hooi
- Abstract要約: 自己監督型コントラスト学習は、ラベルのないデータから高品質な表現を導き出すのに有効であることが証明されている。
単目的学習とマルチモーダル学習の両方を妨げる大きな課題は、特徴抑制である。
本稿では,新しいモデルに依存しないマルチステージコントラスト学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 47.95399695465355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised Contrastive Learning has proven effective in deriving
high-quality representations from unlabeled data. However, a major challenge
that hinders both unimodal and multimodal contrastive learning is feature
suppression, a phenomenon where the trained model captures only a limited
portion of the information from the input data while overlooking other
potentially valuable content. This issue often leads to indistinguishable
representations for visually similar but semantically different inputs,
adversely affecting downstream task performance, particularly those requiring
rigorous semantic comprehension. To address this challenge, we propose a novel
model-agnostic Multistage Contrastive Learning (MCL) framework. Unlike standard
contrastive learning which inherently captures one single biased feature
distribution, MCL progressively learns previously unlearned features through
feature-aware negative sampling at each stage, where the negative samples of an
anchor are exclusively selected from the cluster it was assigned to in
preceding stages. Meanwhile, MCL preserves the previously well-learned features
by cross-stage representation integration, integrating features across all
stages to form final representations. Our comprehensive evaluation demonstrates
MCL's effectiveness and superiority across both unimodal and multimodal
contrastive learning, spanning a range of model architectures from ResNet to
Vision Transformers (ViT). Remarkably, in tasks where the original CLIP model
has shown limitations, MCL dramatically enhances performance, with improvements
up to threefold on specific attributes in the recently proposed MMVP benchmark.
- Abstract(参考訳): 自己監督型コントラスト学習は、ラベルのないデータから高品質な表現を導き出すのに有効であることが証明されている。
しかし、ユニモーダルとマルチモーダルのコントラスト学習の両方を妨げる大きな課題は、訓練されたモデルが入力データから限られた情報のみをキャプチャし、他の潜在的に価値のあるコンテンツを見渡す現象である。
この問題はしばしば視覚的に類似しているが意味的に異なる入力に対する識別不能な表現をもたらし、下流のタスクパフォーマンスに悪影響を及ぼす。
そこで本研究では,新しいモデル非依存多段階コントラスト学習(mcl)フレームワークを提案する。
単一の偏りのある特徴分布を本質的に捉える標準のコントラスト学習とは異なり、mclは、前段に割り当てられたクラスタからアンカーの負のサンプルが排他的に選択される各段で特徴認識された負のサンプリングを通じて、前段の未学習の特徴を徐々に学習する。
一方、mclは、クロスステージ表現の統合によって、これまでよく知られた機能を保存し、すべてのステージに機能を統合して最終表現を形成する。
我々の総合評価は、ResNet から Vision Transformers (ViT) までのモデルアーキテクチャにまたがる、一様および多モードのコントラスト学習における MCL の有効性と優位性を示している。
注目すべきなのは、オリジナルのCLIPモデルが制限されたタスクにおいて、MCLはパフォーマンスを劇的に向上させ、最近提案されたMMVPベンチマークの特定の属性を最大3倍に改善する。
関連論文リスト
- CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [56.199779065855004]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Enhancing Vision-Language Few-Shot Adaptation with Negative Learning [11.545127156146368]
我々は,タスク固有の知識をより効率的に活用するための,シンプルで効果的な否定的学習手法SimNLを提案する。
そこで本研究では,雑音を緩和するために,プラグアンドプレイによる数発のインスタンス再重み付け手法を提案する。
提案したSimNLは,少数ショット学習とドメイン一般化の両タスクにおいて,既存の最先端手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-19T17:59:39Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Understanding Multimodal Contrastive Learning and Incorporating Unpaired
Data [19.72282903349282]
マルチモーダル・コントラッシブ・ラーニング(MMCL)における非線形損失関数の一般クラスを示す。
MMCLの特徴学習能力は,各モダリティに適用される一助的コントラスト学習能力よりも優れていることを示す。
追加の未ペアデータにアクセスできる場合、追加の未ペアデータを含む新たなMMCL損失を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:11:05Z) - PointACL:Adversarial Contrastive Learning for Robust Point Clouds
Representation under Adversarial Attack [73.3371797787823]
逆比較学習(Adversarial contrastive learning, ACL)は、事前学習されたモデルの堅牢性を改善する効果的な方法と考えられている。
本稿では,自己指導型コントラスト学習フレームワークを逆向きに学習するために,ロバストな認識損失関数を提案する。
提案手法であるPointACLを,複数のデータセットを用いた3次元分類と3次元分割を含む下流タスクで検証する。
論文 参考訳(メタデータ) (2022-09-14T22:58:31Z) - DUET: Cross-modal Semantic Grounding for Contrastive Zero-shot Learning [37.48292304239107]
本稿では, DUET という変換器を用いたエンドツーエンドZSL手法を提案する。
画像からセマンティック属性を分離するモデルの能力を調べるために,モーダルなセマンティックグラウンドネットワークを開発した。
DUETは、しばしば最先端のパフォーマンスを達成することができ、そのコンポーネントは有効であり、予測は解釈可能である。
論文 参考訳(メタデータ) (2022-07-04T11:12:12Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。