論文の概要: Inability of spatial transformations of CNN feature maps to support
invariant recognition
- arxiv url: http://arxiv.org/abs/2004.14716v1
- Date: Thu, 30 Apr 2020 12:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:10:28.641408
- Title: Inability of spatial transformations of CNN feature maps to support
invariant recognition
- Title(参考訳): 不変認識を支援するCNN特徴写像の空間変換の不能性
- Authors: Ylva Jansson, Maksim Maydanskiy, Lukas Finnveden and Tony Lindeberg
- Abstract要約: CNN特徴写像の空間変換は、元の特徴写像と一致するように変換された画像の特徴写像を整列できないことを示す。
回転や反射の場合、空間変換された特徴写像やフィルタは不変性を実現するが、学習またはハードコードされた回転または反射不変の特徴を持つネットワークに限られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large number of deep learning architectures use spatial transformations of
CNN feature maps or filters to better deal with variability in object
appearance caused by natural image transformations. In this paper, we prove
that spatial transformations of CNN feature maps cannot align the feature maps
of a transformed image to match those of its original, for general affine
transformations, unless the extracted features are themselves invariant. Our
proof is based on elementary analysis for both the single- and multi-layer
network case. The results imply that methods based on spatial transformations
of CNN feature maps or filters cannot replace image alignment of the input and
cannot enable invariant recognition for general affine transformations,
specifically not for scaling transformations or shear transformations. For
rotations and reflections, spatially transforming feature maps or filters can
enable invariance but only for networks with learnt or hardcoded rotation- or
reflection-invariant features
- Abstract(参考訳): 多くのディープラーニングアーキテクチャでは、CNNの特徴マップやフィルタの空間変換を使用して、自然な画像変換によるオブジェクトの外観の変化をよりよく扱う。
本稿では,CNN特徴写像の空間変換が,抽出した特徴が不変でない限り,元のアフィン変換と一致するように変換された画像の特徴写像を整列できないことを証明する。
この証明は、単層および多層ネットワークケースの基本的な解析に基づいている。
その結果、cnn特徴写像やフィルタの空間変換に基づく手法は入力の画像アライメントを置き換えることができず、一般的なアフィン変換、特にスケーリング変換やせん断変換に対しては不変認識ができないことが示された。
回転や反射の場合、空間変換された特徴写像やフィルタは不変であるが、学習またはハードコードされた回転または反射不変の特徴を持つネットワークに限られる。
関連論文リスト
- Self-supervised Transformation Learning for Equivariant Representations [26.207358743969277]
教師なし表現学習は、様々な機械学習タスクを大幅に進歩させた。
本稿では,変換ラベルを画像ペアから派生した変換表現に置き換える自己教師あり変換学習(STL)を提案する。
さまざまな分類タスクと検出タスクにまたがって、アプローチの有効性を実証し、11のベンチマークのうち7つで既存の手法より優れています。
論文 参考訳(メタデータ) (2025-01-15T10:54:21Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - ParGAN: Learning Real Parametrizable Transformations [50.51405390150066]
本稿では、画像変換学習のためのサイクル一貫性GANフレームワークの一般化であるParGANを提案する。
提案したジェネレータは、画像と変換のパラメトリゼーションの両方を入力とする。
注釈付きパラメトリゼーションを伴わない不整合画像領域では、このフレームワークはスムーズな生成が可能であり、同時に複数の変換を学習できることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:16:06Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - FILTRA: Rethinking Steerable CNN by Filter Transform [59.412570807426135]
操舵可能なCNNの問題は群表現論の側面から研究されている。
フィルタ変換によって構築されたカーネルは群表現論でも解釈可能であることを示す。
この解釈は、ステアブルCNN理論のパズルを完成させ、ステアブル畳み込み演算子を実装するための、新しく簡単なアプローチを提供する。
論文 参考訳(メタデータ) (2021-05-25T03:32:34Z) - A generalised feature for low level vision [0.0]
Sinclair-Town変換は、エッジ検出器、MSERスタイルの領域検出器、コーナー検出器の両方のロールを仮定する。
局所平均との差は3つの値(暗中光)に量子化される
論文 参考訳(メタデータ) (2021-02-03T11:02:03Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Understanding when spatial transformer networks do not support
invariance, and what to do about it [0.0]
空間トランスフォーマーネットワーク(STN)は、畳み込みニューラルネットワーク(CNN)が画像変換に不変性を学習できるように設計された。
我々はSTNが変換された画像の特徴マップと元の特徴マップを整列する能力を持っていないことを示す。
複雑な特徴を生かした代替STNアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2020-04-24T12:20:35Z) - The problems with using STNs to align CNN feature maps [0.0]
空間変換器ネットワーク(STN)は、変換された画像とそのオリジナルの特徴マップを整列する能力を持たないと我々は主張する。
我々は、分類とローカライゼーションネットワークの間でパラメータを共有することによって、より深い層におけるより複雑な特徴を活用することを提唱する。
論文 参考訳(メタデータ) (2020-01-14T12:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。