論文の概要: Beyond Instance Consistency: Investigating View Diversity in Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2509.11344v1
- Date: Sun, 14 Sep 2025 16:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.03977
- Title: Beyond Instance Consistency: Investigating View Diversity in Self-supervised Learning
- Title(参考訳): インスタンスの一貫性を超えて: 自己指導型学習における視点の多様性を探る
- Authors: Huaiyuan Qin, Muli Yang, Siyuan Hu, Peng Hu, Yu Zhang, Chen Gong, Hongyuan Zhu,
- Abstract要約: 本稿では,インスタンスの一貫性が保証されない場合の自己教師型学習の有効性について検討する。
正のペアが厳密なインスタンス一貫性を欠いている場合でも、SSLは意味のある表現を学習できることを示す。
過剰な多様性は効果を減少させ、ビューの多様性に最適な範囲を示唆している。
- 参考スコア(独自算出の注目度): 40.22430098149745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) conventionally relies on the instance consistency paradigm, assuming that different views of the same image can be treated as positive pairs. However, this assumption breaks down for non-iconic data, where different views may contain distinct objects or semantic information. In this paper, we investigate the effectiveness of SSL when instance consistency is not guaranteed. Through extensive ablation studies, we demonstrate that SSL can still learn meaningful representations even when positive pairs lack strict instance consistency. Furthermore, our analysis further reveals that increasing view diversity, by enforcing zero overlapping or using smaller crop scales, can enhance downstream performance on classification and dense prediction tasks. However, excessive diversity is found to reduce effectiveness, suggesting an optimal range for view diversity. To quantify this, we adopt the Earth Mover's Distance (EMD) as an estimator to measure mutual information between views, finding that moderate EMD values correlate with improved SSL learning, providing insights for future SSL framework design. We validate our findings across a range of settings, highlighting their robustness and applicability on diverse data sources.
- Abstract(参考訳): 自己教師付き学習(SSL)は、通常、同じイメージの異なるビューを肯定的なペアとして扱うことができると仮定して、インスタンスの一貫性パラダイムに依存している。
しかし、この仮定は、異なるビューが異なるオブジェクトやセマンティック情報を含む場合、非非同期データに対して分解される。
本稿では,インスタンスの一貫性が保証されない場合にSSLの有効性を検討する。
広範なアブレーション研究を通じて、正のペアが厳密なインスタンス一貫性を欠いている場合でも、SSLが意味のある表現を学習できることを実証する。
さらに,本分析により,ゼロオーバーラップの実施による視点の多様性の向上や,より小さな作物スケールの活用により,分類や密集予測タスクにおける下流性能の向上が図られている。
しかし、過剰な多様性は効果を減少させ、ビューの多様性に最適な範囲を示唆している。
これを定量化するために、我々は、ビュー間の相互情報を測定するためにEarth Mover's Distance (EMD) を推定器として採用し、中程度のEMD値はSSL学習の改善と相関し、将来のSSLフレームワーク設計の洞察を提供する。
さまざまなデータソースに対する堅牢性と適用性を強調しながら、さまざまな設定で結果を検証する。
関連論文リスト
- Adversarial Robustness of Discriminative Self-Supervised Learning in Vision [0.0]
本研究では,7つの識別的自己監督モデルと1つの教師付きモデルの相反するロバスト性を評価する。
以上の結果から, 識別型SSLモデルでは, イメージネットの監視対象モデルに比べて, 敵攻撃に対する堅牢性が良好であることが示唆された。
論文 参考訳(メタデータ) (2025-03-08T23:50:36Z) - On the Discriminability of Self-Supervised Representation Learning [38.598160031349686]
自己教師付き学習(SSL)は、最近、様々な視覚的タスクで顕著な成功を収めた。
しかし、差別性という点では、SSLは依然として教師あり学習(SL)と同等ではない。
本稿では,異なるクラスの特徴が十分に分離されていない「群集問題」について論じる。
論文 参考訳(メタデータ) (2024-07-18T14:18:03Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Understanding Contrastive Learning Through the Lens of Margins [9.443122526245562]
自己教師型学習(SSL)は、現実世界のタスクにおける機械学習の利用を拡大する鍵を握る。
比較学習がより深いレベルでどのように機能するかを理解するために、マージンをステップストーンとして使用しています。
論文 参考訳(メタデータ) (2023-06-20T13:28:27Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - ReSSL: Relational Self-Supervised Learning with Weak Augmentation [68.47096022526927]
自己教師付き学習は、データアノテーションなしで視覚表現を学ぶことに成功しました。
本稿では,異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナルSSLパラダイムを提案する。
提案したReSSLは,性能とトレーニング効率の両面で,従来の最先端アルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-20T06:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。