論文の概要: Sorted Convolutional Network for Achieving Continuous Rotational
Invariance
- arxiv url: http://arxiv.org/abs/2305.14462v1
- Date: Tue, 23 May 2023 18:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 00:07:50.732232
- Title: Sorted Convolutional Network for Achieving Continuous Rotational
Invariance
- Title(参考訳): 連続回転不変性を実現するためのSorted Convolutional Network
- Authors: Hanlin Mo and Guoying Zhao
- Abstract要約: テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 56.42518353373004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The topic of achieving rotational invariance in convolutional neural networks
(CNNs) has gained considerable attention recently, as this invariance is
crucial for many computer vision tasks such as image classification and
matching. In this letter, we propose a Sorting Convolution (SC) inspired by
some hand-crafted features of texture images, which achieves continuous
rotational invariance without requiring additional learnable parameters or data
augmentation. Further, SC can directly replace the conventional convolution
operations in a classic CNN model to achieve its rotational invariance. Based
on MNIST-rot dataset, we first analyze the impact of convolutional kernel
sizes, different sampling and sorting strategies on SC's rotational invariance,
and compare our method with previous rotation-invariant CNN models. Then, we
combine SC with VGG, ResNet and DenseNet, and conduct classification
experiments on popular texture and remote sensing image datasets. Our results
demonstrate that SC achieves the best performance in the aforementioned tasks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)における回転不変性の実現という話題は、画像分類やマッチングといった多くのコンピュータビジョンタスクにおいて、近年注目されている。
本稿では,手作りのテクスチャ画像の特徴に着想を得たソーティング・コンボリューション(SC)を提案し,学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を実現する。
さらに、scは従来のcnnモデルの畳み込み演算を直接置き換えて回転不変性を達成することができる。
mnist-rotデータセットに基づいて,まず畳み込みカーネルサイズ,異なるサンプリングおよびソート戦略がscの回転不変性に与える影響を解析し,従来の回転不変cnnモデルと比較した。
次に、SCとVGG、ResNet、DenseNetを組み合わせて、一般的なテクスチャとリモートセンシング画像データセットの分類実験を行う。
その結果,scは上述のタスクで最高の性能を達成できた。
関連論文リスト
- Achieving Rotation Invariance in Convolution Operations: Shifting from Data-Driven to Mechanism-Assured [18.910817148765176]
本稿では、任意の回転に自然に不変な新しい畳み込み演算を設計する。
従来の回転不変畳み込みニューラルネットワーク(RI-CNN)と比較した。
RIConvsはトレーニングデータに制限がある場合,これらのCNNバックボーンの精度を著しく向上することを示した。
論文 参考訳(メタデータ) (2024-04-17T12:21:57Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。