論文の概要: Group Equivariant Subsampling
- arxiv url: http://arxiv.org/abs/2106.05886v1
- Date: Thu, 10 Jun 2021 16:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 18:04:28.662374
- Title: Group Equivariant Subsampling
- Title(参考訳): 群同変部分サンプリング
- Authors: Jin Xu, Hyunjik Kim, Tom Rainforth, Yee Whye Teh
- Abstract要約: サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
- 参考スコア(独自算出の注目度): 60.53371517247382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subsampling is used in convolutional neural networks (CNNs) in the form of
pooling or strided convolutions, to reduce the spatial dimensions of feature
maps and to allow the receptive fields to grow exponentially with depth.
However, it is known that such subsampling operations are not translation
equivariant, unlike convolutions that are translation equivariant. Here, we
first introduce translation equivariant subsampling/upsampling layers that can
be used to construct exact translation equivariant CNNs. We then generalise
these layers beyond translations to general groups, thus proposing group
equivariant subsampling/upsampling. We use these layers to construct group
equivariant autoencoders (GAEs) that allow us to learn low-dimensional
equivariant representations. We empirically verify on images that the
representations are indeed equivariant to input translations and rotations, and
thus generalise well to unseen positions and orientations. We further use GAEs
in models that learn object-centric representations on multi-object datasets,
and show improved data efficiency and decomposition compared to non-equivariant
baselines.
- Abstract(参考訳): サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使われ、特徴写像の空間次元を小さくし、受容野が深さとともに指数関数的に成長できるようにする。
しかし、そのような部分サンプリング操作は、変換同変である畳み込みとは異なり、翻訳同変ではないことが知られている。
ここではまず,完全翻訳同変cnnの構築に使用できる翻訳同変部分サンプリング/アップサンプリング層について紹介する。
次にこれらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
これらの層を用いて群同変オートエンコーダ(GAE)を構築し、低次元同変表現を学習する。
我々は、表現が入力の翻訳と回転と実際に同値であることのイメージを経験的に検証し、その結果、見つからない位置と向きによく一般化する。
さらに,マルチオブジェクトデータセット上でオブジェクト中心表現を学習するモデルにおいて,gaesを用いて,非同値なベースラインと比較して,データ効率と分解性が向上することを示す。
関連論文リスト
- Restore Translation Using Equivariant Neural Networks [7.78895108256899]
本稿では,畳み込みニューラルネットワークに変換された(あるいは回転した)入力を復元するための事前分類器復元器を提案する。
復元子は、テンソル空間上の変換同変であるアフィン作用素に十分かつ必要な条件を与える理論的な結果に基づいている。
論文 参考訳(メタデータ) (2023-06-29T13:34:35Z) - Investigating how ReLU-networks encode symmetries [13.935148870831396]
ネットワークの等式がすべての層が等式であることを示すかどうかを考察する。
等変で訓練されたCNNは階層的に等変を示すと推測する。
2つの異なるネットワークをマージするよりも、ネットワークとグループ変換されたバージョンをマージすることが通常容易であることを示す。
論文 参考訳(メタデータ) (2023-05-26T15:23:20Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Scale Equivariant U-Net [0.0]
本稿では、スケールと翻訳の半群にほぼ同値なU-Netであるスケール等変U-Net(SEU-Net)を紹介する。
提案したSEU-Netは, セルセグメンテーションのためのOxford Pet IIITとDIC-C2DH-HeLaデータセットのセグメンテーションのために訓練されている。
U-Net がスケールジッタリングで訓練された場合でも、U-Net と比較して、目に見えないスケールへの一般化基準が劇的に改善される。
論文 参考訳(メタデータ) (2022-10-10T09:19:40Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。