論文の概要: Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution
- arxiv url: http://arxiv.org/abs/2303.00326v1
- Date: Wed, 1 Mar 2023 08:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:35:36.620876
- Title: Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution
- Title(参考訳): 類似性畳み込みを用いたスケール・回転等価性ネットワークの強化
- Authors: Zikai Sun, Thierry Blu
- Abstract要約: 翻訳, 回転, スケーリングに関して, 同時同値のCNNを実現する手法を考案する。
提案手法は畳み込みのような動作を定義し,提案したスケーラブルなフーリエ・アーガン表現に基づいて等価性を保証する。
画像分類作業におけるアプローチの有効性を検証し、その頑健さと、スケールされた入力と回転した入力の両方に対する一般化能力を示す。
- 参考スコア(独自算出の注目度): 16.853711292804476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The translational equivariant nature of Convolutional Neural Networks (CNNs)
is a reason for its great success in computer vision. However, networks do not
enjoy more general equivariance properties such as rotation or scaling,
ultimately limiting their generalization performance. To address this
limitation, we devise a method that endows CNNs with simultaneous equivariance
with respect to translation, rotation, and scaling. Our approach defines a
convolution-like operation and ensures equivariance based on our proposed
scalable Fourier-Argand representation. The method maintains similar efficiency
as a traditional network and hardly introduces any additional learnable
parameters, since it does not face the computational issue that often occurs in
group-convolution operators. We validate the efficacy of our approach in the
image classification task, demonstrating its robustness and the generalization
ability to both scaled and rotated inputs.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)の翻訳等価性は、コンピュータビジョンにおいて大きな成功を収めた理由である。
しかし、ネットワークは回転やスケーリングのようなより一般的な同分散特性を享受せず、最終的に一般化性能を制限している。
この制限に対処するために, 翻訳, 回転, スケーリングに関して, 同時等分散でcnnを内在させる手法を考案する。
提案手法は畳み込みのような操作を定義し,提案するスケーラブルなフーリエ・アルガンド表現に基づく同値性を保証する。
従来のネットワークと同様の効率を維持しており、グループ畳み込み演算子でしばしば発生する計算問題に直面するため、学習可能なパラメータを追加することはほとんどない。
画像分類タスクにおいて,本手法の有効性を検証するとともに,その頑健性と,スケールと回転の両方の入力に対する一般化能力を示す。
関連論文リスト
- Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - FRS-Nets: Fourier Parameterized Rotation and Scale Equivariant Networks
for Retinal Vessel Segmentation [55.4653338610275]
フーリエのパラメータ化と回転とスケーリングに等価な新しい畳み込み演算子 (FRS-Conv) を構築する。
対応するベースラインの13.9%のパラメータで、FRS-Netは最先端のパフォーマンスを達成した。
FRS-Netsの顕著な精度、一般化、臨床応用の可能性を示す。
論文 参考訳(メタデータ) (2023-09-27T13:14:57Z) - Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Moving Frame Net: SE(3)-Equivariant Network for Volumes [0.0]
移動フレームアプローチに基づく画像データのための回転・変換同変ニューラルネットワークを提案する。
入力段階において、移動フレームの計算を1つに減らし、そのアプローチを大幅に改善する。
我々の訓練されたモデルは、MedMNIST3Dの試験されたデータセットの大部分の医療ボリューム分類において、ベンチマークを上回ります。
論文 参考訳(メタデータ) (2022-11-07T10:25:38Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Translational Equivariance in Kernelizable Attention [3.236198583140341]
本稿では,カーネル可能な注意に基づく効率的なトランスフォーマにおいて,翻訳等価性を実現する方法を示す。
実験では,提案手法が入力画像のシフトに対する演奏者のロバスト性を大幅に改善することを強調する。
論文 参考訳(メタデータ) (2021-02-15T17:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。