論文の概要: GenView: Enhancing View Quality with Pretrained Generative Model for Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2403.12003v1
- Date: Mon, 18 Mar 2024 17:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 19:11:08.276650
- Title: GenView: Enhancing View Quality with Pretrained Generative Model for Self-Supervised Learning
- Title(参考訳): GenView: 自己指導型学習のための事前学習型生成モデルによるビュー品質向上
- Authors: Xiaojie Li, Yibo Yang, Xiangtai Li, Jianlong Wu, Yue Yu, Bernard Ghanem, Min Zhang,
- Abstract要約: GenViewは、ポジティブなビューの多様性を強化するコントロール可能なフレームワークである。
我々は、正のペアの品質を評価する品質駆動のコントラスト損失を導入する。
肯定的なビュー品質の改善と品質主導のコントラスト損失のおかげで、GenViewはさまざまなタスクにわたる自己教師型学習を大幅に改善した。
- 参考スコア(独自算出の注目度): 90.13980177575809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning has achieved remarkable success in acquiring high-quality representations from unlabeled data. The widely adopted contrastive learning framework aims to learn invariant representations by minimizing the distance between positive views originating from the same image. However, existing techniques to construct positive views highly rely on manual transformations, resulting in limited diversity and potentially false positive pairs. To tackle these challenges, we present GenView, a controllable framework that augments the diversity of positive views leveraging the power of pretrained generative models while preserving semantics. We develop an adaptive view generation method that dynamically adjusts the noise level in sampling to ensure the preservation of essential semantic meaning while introducing variability. Additionally, we introduce a quality-driven contrastive loss, which assesses the quality of positive pairs by considering both foreground similarity and background diversity. This loss prioritizes the high-quality positive pairs we construct while reducing the influence of low-quality pairs, thereby mitigating potential semantic inconsistencies introduced by generative models and aggressive data augmentation. Thanks to the improved positive view quality and the quality-driven contrastive loss, GenView significantly improves self-supervised learning across various tasks. For instance, GenView improves MoCov2 performance by 2.5%/2.2% on ImageNet linear/semi-supervised classification. Moreover, GenView even performs much better than naively augmenting the ImageNet dataset with Laion400M or ImageNet21K. Code is available at https://github.com/xiaojieli0903/genview.
- Abstract(参考訳): 自己教師付き学習は、ラベルのないデータから高品質な表現を取得することに成功している。
広範に採用されているコントラスト学習フレームワークは、同じ画像から生じるポジティブビュー間の距離を最小化し、不変表現を学習することを目的としている。
しかし、既存の正のビューを構築する技術は手動の変換に強く依存しており、結果として多様性が限られ、潜在的に偽の正のペアが生まれる。
これらの課題に対処するため、GenViewは、セマンティクスを保ちながら、事前学習された生成モデルのパワーを活用するポジティブビューの多様性を高める制御可能なフレームワークである。
可変性を導入しながら本質的な意味の保存を確保するため,サンプリング中の雑音レベルを動的に調整する適応ビュー生成手法を開発した。
さらに,前景の類似性と背景の多様性を両立させることにより,正の対の質を評価する品質駆動型コントラスト損失を導入する。
この損失は、私たちが構築する高品質な正ペアを優先し、低品質なペアの影響を低減し、生成モデルやアグレッシブなデータ拡張によってもたらされる潜在的な意味的不整合を軽減します。
肯定的なビュー品質の改善と品質主導のコントラスト損失のおかげで、GenViewはさまざまなタスクにわたる自己教師型学習を大幅に改善した。
例えば、GenViewはImageNetの線形/半教師付き分類でMoCov2のパフォーマンスを2.5%/2.2%改善している。
さらに、GenViewは、Laion400MやImageNet21KでImageNetデータセットをナレーション的に拡張するよりも、はるかに優れたパフォーマンスを実現している。
コードはhttps://github.com/xiaojieli0903/genview.comから入手できる。
関連論文リスト
- G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - Improving Viewpoint Robustness for Visual Recognition via Adversarial
Training [26.824940629150362]
画像分類器の視点ロバスト性を改善するために,ビューポイント不変適応訓練(VIAT)を提案する。
GMVFool が生成する敵対的視点の多様性に基づいて,VIAT は様々な画像分類器の視点ロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-07-21T12:18:35Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - Improving Contrastive Learning by Visualizing Feature Transformation [37.548120912055595]
本稿では,データ拡張とは異なる特徴レベルのデータ操作を考案し,汎用的なコントラスト型自己教師型学習の強化を試みる。
まず,pos/negスコアの可視化手法(pos/negスコアはpos/negペアの類似性を示す)を設計し,学習過程の分析,解釈,理解を可能にする。
その結果,MoCoベースライン上でのImageNet-100の精度は少なくとも6.0%向上し,MoCoV2ベースライン上でのImageNet-1Kの精度は約2.0%向上した。
論文 参考訳(メタデータ) (2021-08-06T07:26:08Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。