論文の概要: Achieving Rotation Invariance in Convolution Operations: Shifting from Data-Driven to Mechanism-Assured
- arxiv url: http://arxiv.org/abs/2404.11309v1
- Date: Wed, 17 Apr 2024 12:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 14:14:33.722584
- Title: Achieving Rotation Invariance in Convolution Operations: Shifting from Data-Driven to Mechanism-Assured
- Title(参考訳): 畳み込み操作における回転不変性の実現:データ駆動からメカニズム保証への移行
- Authors: Hanlin Mo, Guoying Zhao,
- Abstract要約: 本稿では、任意の回転に自然に不変な新しい畳み込み演算を設計する。
従来の回転不変畳み込みニューラルネットワーク(RI-CNN)と比較した。
RIConvsはトレーニングデータに制限がある場合,これらのCNNバックボーンの精度を著しく向上することを示した。
- 参考スコア(独自算出の注目度): 18.910817148765176
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Achieving rotation invariance in deep neural networks without relying on data has always been a hot research topic. Intrinsic rotation invariance can enhance the model's feature representation capability, enabling better performance in tasks such as multi-orientation object recognition and detection. Based on various types of non-learnable operators, including gradient, sort, local binary pattern, maximum, etc., this paper designs a set of new convolution operations that are natually invariant to arbitrary rotations. Unlike most previous studies, these rotation-invariant convolutions (RIConvs) have the same number of learnable parameters and a similar computational process as conventional convolution operations, allowing them to be interchangeable. Using the MNIST-Rot dataset, we first verify the invariance of these RIConvs under various rotation angles and compare their performance with previous rotation-invariant convolutional neural networks (RI-CNNs). Two types of RIConvs based on gradient operators achieve state-of-the-art results. Subsequently, we combine RIConvs with different types and depths of classic CNN backbones. Using the OuTex_00012, MTARSI, and NWPU-RESISC-45 datasets, we test their performance on texture recognition, aircraft type recognition, and remote sensing image classification tasks. The results show that RIConvs significantly improve the accuracy of these CNN backbones, especially when the training data is limited. Furthermore, we find that even with data augmentation, RIConvs can further enhance model performance.
- Abstract(参考訳): データに依存しないディープニューラルネットワークの回転不変性を実現することは、常にホットな研究トピックである。
内在的な回転不変性はモデルの特徴表現能力を高め、多方向オブジェクト認識や検出といったタスクのパフォーマンスを向上させることができる。
本稿では,勾配,ソート,局所二項パターン,最大値など,学習不能な演算子の種類に基づいて,任意の回転に自然に不変な新しい畳み込み演算を設計する。
従来の研究とは異なり、これらの回転不変畳み込み(RIConvs)は学習可能なパラメータの数と同じであり、従来の畳み込み演算と同様の計算プロセスを持ち、交換可能である。
MNIST-Rotデータセットを用いて、まず様々な回転角の下でこれらのRIConvの不変性を検証し、それらの性能を以前の回転不変畳み込みニューラルネットワーク(RI-CNN)と比較する。
勾配演算子に基づく2種類のRIConvは、最先端の結果を得る。
その後、RIConvsと従来のCNNバックボーンの異なるタイプと深さを組み合わせる。
OuTex_00012, MTARSI, NWPU-RESISC-45データセットを用いて, テクスチャ認識, 航空機型認識, リモートセンシング画像分類タスクの性能試験を行った。
RIConvsはトレーニングデータに制限がある場合,これらのCNNバックボーンの精度を著しく向上することを示した。
さらに、データ拡張であっても、RIConvsはモデルの性能をさらに向上させることができる。
関連論文リスト
- PreCM: The Padding-based Rotation Equivariant Convolution Mode for Semantic Segmentation [10.74841255987162]
本稿では,パッド型回転同変畳み込みモード(PreCM)を数値的に構築する。
PreCMは、マルチスケールの画像や畳み込みカーネルだけでなく、複数の畳み込みを置き換えるための代替コンポーネントとしても使用できる。
実験により、PreCMベースのネットワークは、元のネットワークやデータ拡張ベースのネットワークよりもセグメンテーション性能が良いことを示した。
論文 参考訳(メタデータ) (2024-11-03T16:26:55Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - ReF -- Rotation Equivariant Features for Local Feature Matching [30.459559206664427]
本稿では,モデルアーキテクチャ自体に偏りを生じさせ,回転特異な特徴を生じさせる代替的補完的手法を提案する。
我々は, ステアブルCNNの高性能, 回転特異的カバレッジを全回転角に拡張できることを実証した。
本稿では,アンサンブル,ロバストな推定,ネットワークアーキテクチャのバリエーション,回転前処理の効果について詳細に分析する。
論文 参考訳(メタデータ) (2022-03-10T07:36:09Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。