論文の概要: Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks
- arxiv url: http://arxiv.org/abs/2111.11398v1
- Date: Mon, 22 Nov 2021 18:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:11:22.525528
- Title: Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks
- Title(参考訳): 自己教師モデルがなぜ移行するのか?
下流課題における不変性の影響の検討
- Authors: Linus Ericsson and Henry Gouk and Timothy M. Hospedales
- Abstract要約: 自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
- 参考スコア(独自算出の注目度): 79.13089902898848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning is a powerful paradigm for representation learning
on unlabelled images. A wealth of effective new methods based on instance
matching rely on data augmentation to drive learning, and these have reached a
rough agreement on an augmentation scheme that optimises popular recognition
benchmarks. However, there is strong reason to suspect that different tasks in
computer vision require features to encode different (in)variances, and
therefore likely require different augmentation strategies. In this paper, we
measure the invariances learned by contrastive methods and confirm that they do
learn invariance to the augmentations used and further show that this
invariance largely transfers to related real-world changes in pose and
lighting. We show that learned invariances strongly affect downstream task
performance and confirm that different downstream tasks benefit from polar
opposite (in)variances, leading to performance loss when the standard
augmentation strategy is used. Finally, we demonstrate that a simple fusion of
representations with complementary invariances ensures wide transferability to
all the diverse downstream tasks considered.
- Abstract(参考訳): 自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
インスタンスマッチングに基づく効果的な新しい手法は、学習を促進するためにデータ拡張に依存しており、これらは一般的な認識ベンチマークを最適化する拡張スキームに関する大まかな合意に達している。
しかし、コンピュータビジョンにおける異なるタスクには、異なる(in)分散をエンコードする機能が必要であり、そのため異なる拡張戦略が必要であると疑う強い理由がある。
本稿では, コントラスト法で学習された不変性を計測し, それらの不変性が, 使用した増補化と一致していることを確認し, さらに, この不分散が, ポーズと照明の関連実世界変化に大きく影響することを示す。
学習不変性は下流タスクのパフォーマンスに強く影響を与え、下流タスクの違いが極性逆(in)分散の恩恵を受けていることを確認し、標準の強化戦略を使用すると性能が低下することを示した。
最後に、相補的な不変性を持つ表現の単純な融合により、考慮されるすべての下流タスクの広範な転送性が保証されることを示す。
関連論文リスト
- Understanding the Role of Invariance in Transfer Learning [9.220104991339104]
トランスファーラーニングは、異なるタスク間で知識を共有するための強力なテクニックである。
近年の研究では、逆入力摂動のような特定の不変性を持つモデルの表現が、下流タスクにおいてより高い性能を達成することが判明している。
論文 参考訳(メタデータ) (2024-07-05T07:53:52Z) - Amortised Invariance Learning for Contrastive Self-Supervision [11.042648980854485]
対照的な自己監督のために, 償却不変学習の概念を導入する。
我々のアモーテッド機能は、異なる不変条件で様々な下流タスクを学習する信頼性の高い方法を提供することを示す。
これは、汎用表現学習の分野での新しい地平を開くエキサイティングな視点を提供する。
論文 参考訳(メタデータ) (2023-02-24T16:15:11Z) - EquiMod: An Equivariance Module to Improve Self-Supervised Learning [77.34726150561087]
自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
論文 参考訳(メタデータ) (2022-11-02T16:25:54Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - Rethinking the Augmentation Module in Contrastive Learning: Learning
Hierarchical Augmentation Invariance with Expanded Views [22.47152165975219]
データ拡張モジュールは、データサンプルを2つのビューに変換するために、対照的な学習に使用される。
本稿では, 一般的なコントラスト学習フレームワークにおいて, コントラストとコントラストを考慮し, これら2つの問題を緩和する一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T04:30:46Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Improving Transformation Invariance in Contrastive Representation
Learning [31.223892428863238]
本稿では、新しい正規化器を用いて変換下で表現がどのように変化するかを制御するコントラスト学習のための学習目標を提案する。
第二に、元の入力の複数の変換からのエンコーディングを結合した機能平均化アプローチを導入することにより、テスト時間表現の生成方法を変更することを提案する。
第三に、複数の下流タスクを持つ微分可能生成プロセスの文脈において、私たちのアイデアを探求するために、新しいSpirographデータセットを導入します。
論文 参考訳(メタデータ) (2020-10-19T13:49:29Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。