論文の概要: EquiMod: An Equivariance Module to Improve Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2211.01244v1
- Date: Wed, 2 Nov 2022 16:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 12:34:14.486281
- Title: EquiMod: An Equivariance Module to Improve Self-Supervised Learning
- Title(参考訳): EquiMod: 自己改善型学習を改善する等価モジュール
- Authors: Alexandre Devillers and Mathieu Lefort
- Abstract要約: 自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised visual representation methods are closing the gap with
supervised learning performance. These methods rely on maximizing the
similarity between embeddings of related synthetic inputs created through data
augmentations. This can be seen as a task that encourages embeddings to leave
out factors modified by these augmentations, i.e. to be invariant to them.
However, this only considers one side of the trade-off in the choice of the
augmentations: they need to strongly modify the images to avoid simple solution
shortcut learning (e.g. using only color histograms), but on the other hand,
augmentations-related information may be lacking in the representations for
some downstream tasks (e.g. color is important for birds and flower
classification). Few recent works proposed to mitigate the problem of using
only an invariance task by exploring some form of equivariance to
augmentations. This has been performed by learning additional embeddings
space(s), where some augmentation(s) cause embeddings to differ, yet in a
non-controlled way. In this work, we introduce EquiMod a generic equivariance
module that structures the learned latent space, in the sense that our module
learns to predict the displacement in the embedding space caused by the
augmentations. We show that applying that module to state-of-the-art invariance
models, such as SimCLR and BYOL, increases the performances on CIFAR10 and
ImageNet datasets. Moreover, while our model could collapse to a trivial
equivariance, i.e. invariance, we observe that it instead automatically learns
to keep some augmentations-related information beneficial to the
representations.
- Abstract(参考訳): 自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
これは埋め込みがこれらの拡張によって修正された因子、すなわちそれらに不変な要素を除外することを奨励するタスクと見なすことができる。
しかし、これは拡張の選択におけるトレードオフの一面のみを考慮に入れている: 単純なソリューションのショートカット学習(例えば色ヒストグラムのみを使用する)を避けるために画像を強く修正する必要があるが、一方、拡張関連情報は下流タスクの表現に欠落している可能性がある(例えば、色は鳥や花の分類に重要である)。
増大への等式を探求することによって、不変タスクのみを使用する問題を緩和する最近の研究はほとんどない。
これは、追加の埋め込み空間(s)を学ぶことで実現され、いくつかの拡張は埋め込みが異なるが、制御されていない方法で行われる。
本研究では,学習した潜伏空間を構成する汎用的同値モジュールであるEquiModを紹介し,加法によって生じる埋め込み空間の変位を予測することを学ぶ。
このモジュールをSimCLRやBYOLといった最先端の不変モデルに適用すると,CIFAR10およびImageNetデータセットのパフォーマンスが向上することを示す。
さらに、モデルが自明な等分散(すなわち不変性)に崩壊する可能性はあるが、その代わりに、表現に有益である拡張に関連する情報を自動で保持することが観察される。
関連論文リスト
- Exploring Data Augmentations on Self-/Semi-/Fully- Supervised
Pre-trained Models [24.376036129920948]
本研究では,データ拡張が視力事前訓練モデルの性能に与える影響について検討する。
ランダム消去(Random Erasing)、CutOut(CutOut)、CutMix(CutMix)、MixUp(MixUp)という4種類のデータ拡張を適用します。
画像分類,オブジェクト検出,インスタンスセグメンテーション,セマンティックセグメンテーションなどの視覚タスクにおける性能について報告する。
論文 参考訳(メタデータ) (2023-10-28T23:46:31Z) - Rethinking the Augmentation Module in Contrastive Learning: Learning
Hierarchical Augmentation Invariance with Expanded Views [22.47152165975219]
データ拡張モジュールは、データサンプルを2つのビューに変換するために、対照的な学習に使用される。
本稿では, 一般的なコントラスト学習フレームワークにおいて, コントラストとコントラストを考慮し, これら2つの問題を緩和する一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T04:30:46Z) - Learning Instance-Specific Augmentations by Capturing Local Invariances [62.70897571389785]
InstaAugは、データから入力固有の拡張を自動的に学習する方法である。
InstaAugは、幅広い変換クラスに対して意味のある入力依存の強化を学ぶことを実証的に示す。
論文 参考訳(メタデータ) (2022-05-31T18:38:06Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。