論文の概要: Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments
- arxiv url: http://arxiv.org/abs/2209.10944v1
- Date: Thu, 22 Sep 2022 11:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:44:55.093349
- Title: Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments
- Title(参考訳): 直交モーメントを用いた等価ニューラルネットワークの学習不変表現
- Authors: Jaspreet Singh, Chandan Singh
- Abstract要約: 標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
- 参考スコア(独自算出の注目度): 9.680414207552722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convolutional layers of standard convolutional neural networks (CNNs) are
equivariant to translation. However, the convolution and fully-connected layers
are not equivariant or invariant to other affine geometric transformations.
Recently, a new class of CNNs is proposed in which the conventional layers of
CNNs are replaced with equivariant convolution, pooling, and
batch-normalization layers. The final classification layer in equivariant
neural networks is invariant to different affine geometric transformations such
as rotation, reflection and translation, and the scalar value is obtained by
either eliminating the spatial dimensions of filter responses using convolution
and down-sampling throughout the network or average is taken over the filter
responses. In this work, we propose to integrate the orthogonal moments which
gives the high-order statistics of the function as an effective means for
encoding global invariance with respect to rotation, reflection and translation
in fully-connected layers. As a result, the intermediate layers of the network
become equivariant while the classification layer becomes invariant. The most
widely used Zernike, pseudo-Zernike and orthogonal Fourier-Mellin moments are
considered for this purpose. The effectiveness of the proposed work is
evaluated by integrating the invariant transition and fully-connected layer in
the architecture of group-equivariant CNNs (G-CNNs) on rotated MNIST and
CIFAR10 datasets.
- Abstract(参考訳): 標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
しかし、畳み込み層と完全連結層は他のアフィン幾何変換に同変あるいは不変ではない。
近年,従来のCNN層を同変畳み込み,プーリング,バッチ正規化層に置き換えた新しいCNNクラスが提案されている。
等価ニューラルネットワークにおける最終的な分類層は、回転、反射、変換などの異なるアフィン幾何変換に不変であり、畳み込みを用いたフィルタ応答の空間的寸法をなくすか、フィルタ応答より平均を取るかのいずれかでスカラー値を得る。
本研究では,全連結層における回転,反射,変換に関する大域的不変性を符号化する有効な手段として,関数の高次統計量を与える直交モーメントを統合することを提案する。
その結果、ネットワークの中間層は同変となり、分類層は不変となる。
最も広く使われているツェルニケ、擬ツェルニケ、直交フーリエ・メルリンモーメントはこの目的のために考えられている。
本研究の有効性は,グループ同変CNN(G-CNN)の回転MNISTおよびCIFAR10データセット上に,不変遷移層と完全連結層を統合して評価する。
関連論文リスト
- Restore Translation Using Equivariant Neural Networks [7.78895108256899]
本稿では,畳み込みニューラルネットワークに変換された(あるいは回転した)入力を復元するための事前分類器復元器を提案する。
復元子は、テンソル空間上の変換同変であるアフィン作用素に十分かつ必要な条件を与える理論的な結果に基づいている。
論文 参考訳(メタデータ) (2023-06-29T13:34:35Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Moving Frame Net: SE(3)-Equivariant Network for Volumes [0.0]
移動フレームアプローチに基づく画像データのための回転・変換同変ニューラルネットワークを提案する。
入力段階において、移動フレームの計算を1つに減らし、そのアプローチを大幅に改善する。
我々の訓練されたモデルは、MedMNIST3Dの試験されたデータセットの大部分の医療ボリューム分類において、ベンチマークを上回ります。
論文 参考訳(メタデータ) (2022-11-07T10:25:38Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。