論文の概要: SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2304.09214v1
- Date: Tue, 18 Apr 2023 18:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 16:35:13.318896
- Title: SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks
- Title(参考訳): ベッセル畳み込みニューラルネットワークを用いた画像認識におけるSO(2)とO(2)の等価性
- Authors: Valentin Delchevalerie, Alexandre Mayer, Adrien Bibal and Beno\^it
Fr\'enay
- Abstract要約: この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
- 参考スコア(独自算出の注目度): 63.24965775030674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For many years, it has been shown how much exploiting equivariances can be
beneficial when solving image analysis tasks. For example, the superiority of
convolutional neural networks (CNNs) compared to dense networks mainly comes
from an elegant exploitation of the translation equivariance. Patterns can
appear at arbitrary positions and convolutions take this into account to
achieve translation invariant operations through weight sharing. Nevertheless,
images often involve other symmetries that can also be exploited. It is the
case of rotations and reflections that have drawn particular attention and led
to the development of multiple equivariant CNN architectures. Among all these
methods, Bessel-convolutional neural networks (B-CNNs) exploit a particular
decomposition based on Bessel functions to modify the key operation between
images and filters and make it by design equivariant to all the continuous set
of planar rotations. In this work, the mathematical developments of B-CNNs are
presented along with several improvements, including the incorporation of
reflection and multi-scale equivariances. Extensive study is carried out to
assess the performances of B-CNNs compared to other methods. Finally, we
emphasize the theoretical advantages of B-CNNs by giving more insights and
in-depth mathematical details.
- Abstract(参考訳): 長年にわたって、画像分析タスクの解決において、等分散の活用がどの程度有益かが示されてきた。
例えば、高密度ネットワークと比較して畳み込みニューラルネットワーク(CNN)の優位性は主に翻訳等価性のエレガントな利用に由来する。
パターンは任意の位置に現れ、畳み込みは重み付けによって翻訳不変の操作を達成するためにこれを考慮に入れる。
それでも、画像はしばしば、利用可能な他の対称性を含んでいる。
これは回転と反射のケースであり、特に注目され、複数の同変CNNアーキテクチャの開発につながった。
これらの手法のうち、ベッセル畳み込みニューラルネットワーク(b-cnns)は、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更し、平面回転の全ての連続的な集合に同値な設計を行う。
本研究では,B-CNNの数学的発展と,リフレクションの組み入れやマルチスケールの等価性など,いくつかの改良点を示す。
他の手法と比較してb-cnnの性能を評価するために広範な研究を行った。
最後に,B-CNNの理論的優位性を強調し,より詳細な知見と詳細な数学的詳細を提供する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - The role of data embedding in equivariant quantum convolutional neural
networks [2.255961793913651]
等変量子ニューラルネットワーク(EQNN)の性能に及ぼす古典量子埋め込みの影響について検討する。
等価な量子畳み込みニューラルネットワーク(QCNN)から得られた3種類の振幅埋め込みと、EQCNNの分類精度を数値的に比較する。
論文 参考訳(メタデータ) (2023-12-20T18:25:15Z) - Affine-Transformation-Invariant Image Classification by Differentiable
Arithmetic Distribution Module [8.125023712173686]
畳み込みニューラルネットワーク(CNN)は画像分類において有望な結果を得た。
CNNは回転、翻訳、フリップ、シャッフルなどのアフィン変換に弱い。
本研究では,分散学習手法を取り入れた,より堅牢な代替手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T22:31:32Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - Imaging with Equivariant Deep Learning [9.333799633608345]
我々は、同変イメージングの出現する分野を概観し、それが一般化と新たなイメージングの機会をいかに向上させるかを示す。
獲得物理と集団行動の相互作用と、反復的再構成、ブラインド圧縮センシング、自己教師型学習との関連を示す。
論文 参考訳(メタデータ) (2022-09-05T02:13:57Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。