論文の概要: Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2310.08429v1
- Date: Thu, 12 Oct 2023 15:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 08:54:59.806404
- Title: Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおける回転不変性の再検討
- Authors: Facundo Manuel Quiroga, Franco Ronchetti, Laura Lanzarini, and Aurelio
Fernandez-Bariviera
- Abstract要約: 画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
- 参考スコア(独自算出の注目度): 0.29127054707887967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNN) offer state of the art performance in
various computer vision tasks. Many of those tasks require different subtypes
of affine invariances (scale, rotational, translational) to image
transformations. Convolutional layers are translation equivariant by design,
but in their basic form lack invariances. In this work we investigate how best
to include rotational invariance in a CNN for image classification. Our
experiments show that networks trained with data augmentation alone can
classify rotated images nearly as well as in the normal unrotated case; this
increase in representational power comes only at the cost of training time. We
also compare data augmentation versus two modified CNN models for achieving
rotational invariance or equivariance, Spatial Transformer Networks and Group
Equivariant CNNs, finding no significant accuracy increase with these
specialized methods. In the case of data augmented networks, we also analyze
which layers help the network to encode the rotational invariance, which is
important for understanding its limitations and how to best retrain a network
with data augmentation to achieve invariance to rotation.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、様々なコンピュータビジョンタスクにおけるアートパフォーマンスの状態を提供する。
これらのタスクの多くは、画像変換に対するアフィン不変(スケール、回転、変換)の異なるサブタイプを必要とする。
畳み込み層は設計によって同変であるが、基本形式では不変性がない。
本研究では,画像分類のためのCNNにおける回転不変性について検討する。
私たちの実験では、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に回転画像の分類が可能であることが示されています。
また,空間トランスフォーマーネットワークとグループ同変cnnの回転不変性や等分散性を達成するために,データ拡張法と2つの修正cnnモデルを比較した。
データ拡張ネットワークの場合、どの層がネットワークの回転不変性(英語版)を符号化するのに役立つかを分析する。
関連論文リスト
- Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - What Affects Learned Equivariance in Deep Image Recognition Models? [10.590129221143222]
ImageNet上で,学習した翻訳の等価性と検証精度の相関関係を示す証拠が発見された。
データ拡張、モデルのキャパシティの低減、畳み込みの形での帰納バイアスは、ニューラルネットワークにおいてより高い学習等価性をもたらす。
論文 参考訳(メタデータ) (2023-04-05T17:54:25Z) - RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - What Does CNN Shift Invariance Look Like? A Visualization Study [87.79405274610681]
畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
論文 参考訳(メタデータ) (2020-11-09T01:16:30Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。