論文の概要: Self-supervised learning of Split Invariant Equivariant representations
- arxiv url: http://arxiv.org/abs/2302.10283v2
- Date: Mon, 19 Jun 2023 12:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 03:41:27.366706
- Title: Self-supervised learning of Split Invariant Equivariant representations
- Title(参考訳): 分割不変同値表現の自己教師あり学習
- Authors: Quentin Garrido (FAIR, LIGM), Laurent Najman (LIGM), Yann Lecun (FAIR,
CIMS)
- Abstract要約: 55以上の3Dモデルと250万以上の画像からなる3DIEBenchを導入し、オブジェクトに適用される変換を完全に制御する。
我々はハイパーネットワークに基づく予測アーキテクチャを導入し、不変表現を非分散に分解することなく学習する。
SIE(Split Invariant-Equivariant)を導入し、よりリッチな表現を学ぶために、ハイパーネットワークベースの予測器と表現を2つの部分に分割する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress has been made towards learning invariant or equivariant
representations with self-supervised learning. While invariant methods are
evaluated on large scale datasets, equivariant ones are evaluated in smaller,
more controlled, settings. We aim at bridging the gap between the two in order
to learn more diverse representations that are suitable for a wide range of
tasks. We start by introducing a dataset called 3DIEBench, consisting of
renderings from 3D models over 55 classes and more than 2.5 million images
where we have full control on the transformations applied to the objects. We
further introduce a predictor architecture based on hypernetworks to learn
equivariant representations with no possible collapse to invariance. We
introduce SIE (Split Invariant-Equivariant) which combines the
hypernetwork-based predictor with representations split in two parts, one
invariant, the other equivariant, to learn richer representations. We
demonstrate significant performance gains over existing methods on equivariance
related tasks from both a qualitative and quantitative point of view. We
further analyze our introduced predictor and show how it steers the learned
latent space. We hope that both our introduced dataset and approach will enable
learning richer representations without supervision in more complex scenarios.
Code and data are available at https://github.com/facebookresearch/SIE.
- Abstract(参考訳): 近年,自己教師付き学習による不変表現や同変表現の学習が進められている。
大規模なデータセットで不変性を評価する一方で、同変性はより小さく、より制御された設定で評価される。
我々は,幅広いタスクに適した,より多様な表現を学習するために,両者のギャップを埋めることを目指している。
まず最初に、3DIEBenchというデータセットを導入し、55のクラスに3Dモデルからレンダリングし、250万以上の画像からオブジェクトに適用される変換を完全にコントロールします。
さらに,ハイパーネットワークに基づく予測器アーキテクチャを導入し,不変性に崩壊することのない同変表現を学習する。
我々は,ハイパーネットワークに基づく予測器と2つの部分に分割された表現を結合した sie (split invariant-equivariant) を導入し,よりリッチな表現を学ぶ。
質的および定量的な観点から,既存の等分散関連課題に対する性能向上効果を示す。
さらに,導入した予測器を解析し,学習した潜在空間の制御方法を示す。
導入したデータセットとアプローチの両方が、より複雑なシナリオを監督することなく、よりリッチな表現を学習可能にすることを願っています。
コードとデータはhttps://github.com/facebookresearch/sieで入手できる。
関連論文リスト
- Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation [49.56131393810713]
本稿では、SE(3)同変アーキテクチャと、この課題に教師なしで取り組むためのトレーニング戦略を提案する。
本手法は,0.25Mパラメータと0.92G FLOPを用いて,モデル性能と計算効率を両立させる。
論文 参考訳(メタデータ) (2023-06-08T22:55:32Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Gaussian Switch Sampling: A Second Order Approach to Active Learning [11.775252660867285]
能動的学習において、取得関数は、モデル多様体内の表現位置に直接情報性を定義する。
本稿では,アクティブラーニングの文脈における情報内容とサンプルの重要性の2次定義を提案する。
我々は,モデル表現が訓練データの欠如によって制約されている場合でも,その定義が極めて正確な重要度スコアを生成することを示す。
論文 参考訳(メタデータ) (2023-02-16T15:24:56Z) - CIPER: Combining Invariant and Equivariant Representations Using
Contrastive and Predictive Learning [6.117084972237769]
比較不変性と予測同変表現学習(CIPER)を導入する。
CIPERは、1つの共有エンコーダとエンコーダの上の2つの異なる出力ヘッドを用いて、不変および同変学習目的を含む。
我々は静的な画像タスクと時間拡張された画像データセットについて評価する。
論文 参考訳(メタデータ) (2023-02-05T07:50:46Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Equivariant Point Network for 3D Point Cloud Analysis [17.689949017410836]
点雲解析のための実効的で実用的なSE(3)(3次元翻訳と回転)同変ネットワークを提案する。
まず,6次元の畳み込みを2つの分離可能な畳み込み作用素に分解する新しい枠組みであるSE(3)分離点畳み込みを提案する。
第2に,同変特徴の表現性を効果的に活用するアテンション層を導入する。
論文 参考訳(メタデータ) (2021-03-25T21:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。