論文の概要: Scale-Rotation-Equivariant Lie Group Convolution Neural Networks (Lie
Group-CNNs)
- arxiv url: http://arxiv.org/abs/2306.06934v1
- Date: Mon, 12 Jun 2023 08:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:41:38.076768
- Title: Scale-Rotation-Equivariant Lie Group Convolution Neural Networks (Lie
Group-CNNs)
- Title(参考訳): スケール回転同変リー群畳み込みニューラルネットワーク(Lie Group-CNN)
- Authors: Wei-Dong Qiao, Yang Xu, and Hui Li
- Abstract要約: 本研究では,画像分類タスクのスケールローテーション等価性を維持するLie group-CNNを提案する。
Lie Group-CNNは幾何学的特徴の抽出に成功し、回転とスケール変換を伴う画像上で同変認識を行う。
- 参考スコア(独自算出の注目度): 5.498285766353742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The weight-sharing mechanism of convolutional kernels ensures
translation-equivariance of convolution neural networks (CNNs). Recently,
rotation-equivariance has been investigated. However, research on
scale-equivariance or simultaneous scale-rotation-equivariance is insufficient.
This study proposes a Lie group-CNN, which can keep scale-rotation-equivariance
for image classification tasks. The Lie group-CNN includes a lifting module, a
series of group convolution modules, a global pooling layer, and a
classification layer. The lifting module transfers the input image from
Euclidean space to Lie group space, and the group convolution is parameterized
through a fully connected network using Lie-algebra of Lie-group elements as
inputs to achieve scale-rotation-equivariance. The Lie group SIM(2) is utilized
to establish the Lie group-CNN with scale-rotation-equivariance.
Scale-rotation-equivariance of Lie group-CNN is verified and achieves the best
recognition accuracy on the blood cell dataset (97.50%) and the HAM10000
dataset (77.90%) superior to Lie algebra convolution network, dilation
convolution, spatial transformer network, and scale-equivariant steerable
network. In addition, the generalization ability of the Lie group-CNN on SIM(2)
on rotation-equivariance is verified on rotated-MNIST and rotated-CIFAR10, and
the robustness of the network is verified on SO(2) and SE(2). Therefore, the
Lie group-CNN can successfully extract geometric features and performs
equivariant recognition on images with rotation and scale transformations.
- Abstract(参考訳): 畳み込み核の重み共有機構は畳み込みニューラルネットワーク(cnns)の翻訳等価性を保証する。
近年,回転同分散が研究されている。
しかし, スケール等分散あるいは同時回転同分散の研究は不十分である。
本研究では,画像分類タスクのスケールローテーション等価性を維持するLie group-CNNを提案する。
LieグループCNNは、リフトモジュール、一連のグループ畳み込みモジュール、グローバルプール層、および分類層を含む。
昇降加群はユークリッド空間からリー群空間へ入力画像を転送し、群畳み込みはリー群要素のリー代数を入力として完全連結ネットワークを介してパラメータ化され、スケール回転同分散を達成する。
リー群SIM(2)は、スケール回転同値のリー群CNNを確立するために用いられる。
リー代数畳み込みネットワーク、拡張畳み込み、空間トランスフォーマーネットワーク、スケール不変ステアブルネットワークよりも優れた血液細胞データセット(97.50%)とHAM10000データセット(77.90%)において、Lie群CNNのスケールローテーション等価性を検証する。
さらに、SIM(2)上でのLie群CNNの回転等分散に対する一般化能力を、回転MNISTおよび回転CIFAR10上で検証し、SO(2)およびSE(2)上でネットワークの堅牢性を検証する。
そのため、リー群CNNは幾何的特徴の抽出に成功し、回転およびスケール変換を伴う画像上で同変認識を行うことができる。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Exploiting Redundancy: Separable Group Convolutional Networks on Lie
Groups [14.029933823101084]
群畳み込みニューラルネットワーク(G-CNN)はパラメータ効率とモデルの精度を向上させることが示されている。
本研究では,正規G-CNNによって学習された表現の性質について検討し,グループ畳み込みカーネルにおけるパラメータ冗長性を示す。
部分群とチャネル次元で分離可能な畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:56:53Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Self-grouping Convolutional Neural Networks [30.732298624941738]
本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
論文 参考訳(メタデータ) (2020-09-29T06:24:32Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。