論文の概要: TiCo: Transformation Invariance and Covariance Contrast for
Self-Supervised Visual Representation Learning
- arxiv url: http://arxiv.org/abs/2206.10698v2
- Date: Thu, 23 Jun 2022 17:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 04:51:30.329828
- Title: TiCo: Transformation Invariance and Covariance Contrast for
Self-Supervised Visual Representation Learning
- Title(参考訳): TiCo:自己監督型視覚表現学習のための変換不変性と共分散コントラスト
- Authors: Jiachen Zhu, Rafael M. Moraes, Serkan Karakulak, Vlad Sobol, Alfredo
Canziani, Yann LeCun
- Abstract要約: 自己教師型視覚表現学習のための変換不変性と共分散コントラスト(TiCo)を提案する。
提案手法は,同一画像の異なる歪みバージョンの埋め込み間の一致を最大化することに基づいている。
また,TiCoは容量無制限の暗黙記憶バンクであるMoCoの変種と見なすことができ,余分なメモリコストを伴わないことを示す。
- 参考スコア(独自算出の注目度): 9.507070656654632
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present Transformation Invariance and Covariance Contrast (TiCo) for
self-supervised visual representation learning. Similar to other recent
self-supervised learning methods, our method is based on maximizing the
agreement among embeddings of different distorted versions of the same image,
which pushes the encoder to produce transformation invariant representations.
To avoid the trivial solution where the encoder generates constant vectors, we
regularize the covariance matrix of the embeddings from different images by
penalizing low rank solutions. By jointly minimizing the transformation
invariance loss and covariance contrast loss, we get an encoder that is able to
produce useful representations for downstream tasks. We analyze our method and
show that it can be viewed as a variant of MoCo with an implicit memory bank of
unlimited size at no extra memory cost. This makes our method perform better
than alternative methods when using small batch sizes. TiCo can also be seen as
a modification of Barlow Twins. By connecting the contrastive and
redundancy-reduction methods together, TiCo gives us new insights into how
joint embedding methods work.
- Abstract(参考訳): 自己教師型視覚表現学習のための変換不変性と共分散コントラスト(TiCo)を提案する。
近年の自己教師あり学習法と同様に,同じ画像の歪曲された異なるバージョンの埋め込み間の一致を最大化することで,エンコーダを変換不変表現へと押し上げる。
エンコーダが定数ベクトルを生成する自明な解を避けるために、異なる画像からの埋め込みの共分散行列を低ランク解をペナライズすることで正則化する。
変換不変損失と共分散コントラスト損失を共同で最小化することにより、下流タスクに有用な表現を生成できるエンコーダを得る。
提案手法を解析し,メモリ容量無制限の暗黙的なメモリバンクを持つmocoの変種として,余分なメモリコストを要しないことを示す。
これにより、バッチサイズが小さい場合、代替メソッドよりも優れた性能が得られる。
TiCoはバーロウ・ツインズの改造とも見ることができる。
コントラストメソッドと冗長リダクションメソッドを結合することで、tico氏はジョイント埋め込みメソッドの動作に関する新たな洞察を与えてくれる。
関連論文リスト
- Which Tokens to Use? Investigating Token Reduction in Vision
Transformers [64.99704164972513]
4つの画像分類データセットを用いた10種類のトークン削減手法の削減パターンについて検討した。
トップKプルーニング法は驚くほど強力なベースラインであることがわかった。
リダクションパターンの類似性は、モデルパフォーマンスの適度なプロキシである。
論文 参考訳(メタデータ) (2023-08-09T01:51:07Z) - EquiMod: An Equivariance Module to Improve Self-Supervised Learning [77.34726150561087]
自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
論文 参考訳(メタデータ) (2022-11-02T16:25:54Z) - A Reinforcement Learning Approach for Sequential Spatial Transformer
Networks [6.585049648605185]
我々は、このタスクをマルコフ決定プロセス(MDP)として定式化し、このシーケンシャルな意思決定問題を解決するためにRLを使用する。
この方法では、サンプリングモジュールの微分可能性に縛られません。
MNISTデータセットとFashion-MNISTデータセットを用いて,本手法の有効性を検証するために,複数の実験を設計する。
論文 参考訳(メタデータ) (2021-06-27T17:41:17Z) - VICReg: Variance-Invariance-Covariance Regularization for
Self-Supervised Learning [43.96465407127458]
本稿では,組込みの分散に関する単純な正規化項を用いて,崩壊問題を明確に回避する手法であるvicregを紹介する。
VICRegは、いくつかの下流タスクで、アートの状態と同等の結果を得る。
論文 参考訳(メタデータ) (2021-05-11T09:53:21Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Improving Transformation Invariance in Contrastive Representation
Learning [31.223892428863238]
本稿では、新しい正規化器を用いて変換下で表現がどのように変化するかを制御するコントラスト学習のための学習目標を提案する。
第二に、元の入力の複数の変換からのエンコーディングを結合した機能平均化アプローチを導入することにより、テスト時間表現の生成方法を変更することを提案する。
第三に、複数の下流タスクを持つ微分可能生成プロセスの文脈において、私たちのアイデアを探求するために、新しいSpirographデータセットを導入します。
論文 参考訳(メタデータ) (2020-10-19T13:49:29Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。