論文の概要: Steerable Equivariant Representation Learning
- arxiv url: http://arxiv.org/abs/2302.11349v1
- Date: Wed, 22 Feb 2023 12:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:13:27.143913
- Title: Steerable Equivariant Representation Learning
- Title(参考訳): ステアブル同変表現学習
- Authors: Sangnie Bhardwaj, Willie McClinton, Tongzhou Wang, Guillaume Lajoie,
Chen Sun, Phillip Isola, Dilip Krishnan
- Abstract要約: 本稿では,データ拡張に同値な表現を学習する手法を提案する。
この結果から, 伝達学習性能とロバスト性の向上が期待できる。
- 参考スコア(独自算出の注目度): 36.138305341173414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained deep image representations are useful for post-training tasks
such as classification through transfer learning, image retrieval, and object
detection. Data augmentations are a crucial aspect of pre-training robust
representations in both supervised and self-supervised settings. Data
augmentations explicitly or implicitly promote invariance in the embedding
space to the input image transformations. This invariance reduces
generalization to those downstream tasks which rely on sensitivity to these
particular data augmentations. In this paper, we propose a method of learning
representations that are instead equivariant to data augmentations. We achieve
this equivariance through the use of steerable representations. Our
representations can be manipulated directly in embedding space via learned
linear maps. We demonstrate that our resulting steerable and equivariant
representations lead to better performance on transfer learning and robustness:
e.g. we improve linear probe top-1 accuracy by between 1% to 3% for transfer;
and ImageNet-C accuracy by upto 3.4%. We further show that the steerability of
our representations provides significant speedup (nearly 50x) for test-time
augmentations; by applying a large number of augmentations for
out-of-distribution detection, we significantly improve OOD AUC on the
ImageNet-C dataset over an invariant representation.
- Abstract(参考訳): 事前訓練された深層画像表現は、転送学習、画像検索、オブジェクト検出による分類などの後処理に有用である。
データ拡張は、教師付き設定と自己管理設定の両方において、堅牢な表現を事前訓練する重要な側面である。
データ拡張は、入力画像変換への埋め込み空間の不変性を明示的にまたは暗黙的に促進する。
この不変性は、これらの特定のデータ拡張の感度に依存する下流タスクへの一般化を減少させる。
本稿では,その代わりにデータ拡張に同変する学習表現の手法を提案する。
この同値性は、ステアブル表現を用いて達成する。
我々の表現は学習線型写像を通して埋め込み空間内で直接操作することができる。
例えば、リニアプローブtop-1の精度を1%から3%に向上させ、imagenet-cの精度を最大3.4%向上させる。
さらに,この表現のステアビリティは,テスト時間拡張のための大幅な高速化(約50倍)を提供し,分散検出のための多数の拡張を適用することで,invariant表現よりもimagenet-cデータセット上でのood aucを大幅に改善することを示した。
関連論文リスト
- Random Field Augmentations for Self-Supervised Representation Learning [4.3543354293465155]
本稿では,ガウス確率場に基づく局所変換の新たなファミリーを提案し,自己教師付き表現学習のための画像拡張を生成する。
我々は、ImageNet下流分類のベースラインよりも1.7%のTop-1精度向上と、アウト・オブ・ディストリビューションiNaturalist下流分類の3.6%の改善を実現している。
弱い変換は表現を改善するが、強い変換は画像の構造を劣化させることができる。
論文 参考訳(メタデータ) (2023-11-07T00:35:09Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - CIPER: Combining Invariant and Equivariant Representations Using
Contrastive and Predictive Learning [6.117084972237769]
比較不変性と予測同変表現学習(CIPER)を導入する。
CIPERは、1つの共有エンコーダとエンコーダの上の2つの異なる出力ヘッドを用いて、不変および同変学習目的を含む。
我々は静的な画像タスクと時間拡張された画像データセットについて評価する。
論文 参考訳(メタデータ) (2023-02-05T07:50:46Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Self-Supervised 3D Hand Pose Estimation from monocular RGB via
Contrastive Learning [50.007445752513625]
本稿では,3次元ポーズ推定における構造化回帰タスクに対する自己教師付き手法を提案する。
我々は、不変および同変のコントラスト目的の影響を実験的に検討した。
追加のラベル付きデータに基づいてトレーニングされた標準のResNet-152が、FreiHAND上のPA-EPEで7.6%の改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T17:48:57Z) - InAugment: Improving Classifiers via Internal Augmentation [14.281619356571724]
本稿では,画像内部統計を活用した新しい拡張操作を提案する。
最先端の増補技術による改善を示す。
また,imagenetデータセット上では,resnet50 と efficientnet-b3 top-1 の精度も向上している。
論文 参考訳(メタデータ) (2021-04-08T15:37:21Z) - On the Generalization Effects of Linear Transformations in Data
Augmentation [32.01435459892255]
データ拡張は、画像やテキストの分類タスクのようなアプリケーションのパフォーマンスを改善するための強力な技術である。
我々は線形変換の族を研究し、過度にパラメータ化された線形回帰設定におけるリッジ推定器への影響について研究する。
本稿では,モデルが変換データに対してどの程度不確実であるかによって,変換空間を探索する拡張手法を提案する。
論文 参考訳(メタデータ) (2020-05-02T04:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。