論文の概要: The problems with using STNs to align CNN feature maps
- arxiv url: http://arxiv.org/abs/2001.05858v1
- Date: Tue, 14 Jan 2020 12:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 13:01:14.252309
- Title: The problems with using STNs to align CNN feature maps
- Title(参考訳): CNN特徴マップの整列にSTNを使用する際の問題点
- Authors: Lukas Finnveden, Ylva Jansson, Tony Lindeberg
- Abstract要約: 空間変換器ネットワーク(STN)は、変換された画像とそのオリジナルの特徴マップを整列する能力を持たないと我々は主張する。
我々は、分類とローカライゼーションネットワークの間でパラメータを共有することによって、より深い層におけるより複雑な特徴を活用することを提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial transformer networks (STNs) were designed to enable CNNs to learn
invariance to image transformations. STNs were originally proposed to transform
CNN feature maps as well as input images. This enables the use of more complex
features when predicting transformation parameters. However, since STNs perform
a purely spatial transformation, they do not, in the general case, have the
ability to align the feature maps of a transformed image and its original. We
present a theoretical argument for this and investigate the practical
implications, showing that this inability is coupled with decreased
classification accuracy. We advocate taking advantage of more complex features
in deeper layers by instead sharing parameters between the classification and
the localisation network.
- Abstract(参考訳): 空間トランスフォーマーネットワーク(stns)は、cnnが画像変換の不変性を学ぶために設計された。
STNはもともとCNNの特徴マップと入力画像の変換のために提案されていた。
これにより、変換パラメータを予測する際に、より複雑な機能の使用が可能になる。
しかし、STNは純粋に空間変換を行うため、一般的な場合、変換された画像とそのオリジナルの特徴写像を整列する能力を持たない。
本論では, 分類精度の低下と相まって, 実用上の意味を考察し, 問題点を考察する。
我々は、分類とローカライゼーションネットワークの間でパラメータを共有することによって、より深い層におけるより複雑な特徴を活用することを提唱する。
関連論文リスト
- Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Entropy Transformer Networks: A Learning Approach via Tangent Bundle
Data Manifold [8.893886200299228]
本稿では,CNNアーキテクチャの設計における画像変換の高精度かつ高速なアプローチについて述べる。
データ多様体分布を補間する新しいエントロピーSTN(ESTN)を提案する。
挑戦的なベンチマークの実験は、提案されたESTNがコンピュータビジョンタスクの範囲で予測精度を向上させることを示している。
論文 参考訳(メタデータ) (2023-07-24T04:21:51Z) - Random Padding Data Augmentation [23.70951896315126]
畳み込みニューラルネットワーク(CNN)は、画像内の異なる位置で同じ物体を学習する。
CNNにおける特徴情報の空間的情報の有用性はよく研究されていない。
我々はCNNを訓練するための新しいタイプのパディング手法であるランダムパディングを紹介する。
論文 参考訳(メタデータ) (2023-02-17T04:15:33Z) - B-cos Networks: Alignment is All We Need for Interpretability [136.27303006772294]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
B-コス変換は、完全なモデル計算を忠実に要約する単一の線形変換を誘導する。
VGGs、ResNets、InceptionNets、DenseNetsといった一般的なモデルに簡単に統合できることを示します。
論文 参考訳(メタデータ) (2022-05-20T16:03:29Z) - Quantized convolutional neural networks through the lens of partial
differential equations [6.88204255655161]
畳み込みニューラルネットワーク(CNN)の量子化は、CNNの展開に伴う計算負担を軽減するための一般的なアプローチである。
本研究では、PDEに基づく視点と分析を用いて、量子化されたCNNを改善する方法について検討する。
論文 参考訳(メタデータ) (2021-08-31T22:18:52Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Volumetric Transformer Networks [88.85542905676712]
学習可能なモジュールである容積変換器ネットワーク(VTN)を導入する。
VTNは、中間CNNの空間的およびチャネル的特徴を再設定するために、チャネル回りの歪み場を予測する。
実験の結果,VTNは特徴量の表現力を一貫して向上し,細粒度画像認識とインスタンスレベルの画像検索におけるネットワークの精度が向上することがわかった。
論文 参考訳(メタデータ) (2020-07-18T14:00:12Z) - Inability of spatial transformations of CNN feature maps to support
invariant recognition [0.0]
CNN特徴写像の空間変換は、元の特徴写像と一致するように変換された画像の特徴写像を整列できないことを示す。
回転や反射の場合、空間変換された特徴写像やフィルタは不変性を実現するが、学習またはハードコードされた回転または反射不変の特徴を持つネットワークに限られる。
論文 参考訳(メタデータ) (2020-04-30T12:12:58Z) - Understanding when spatial transformer networks do not support
invariance, and what to do about it [0.0]
空間トランスフォーマーネットワーク(STN)は、畳み込みニューラルネットワーク(CNN)が画像変換に不変性を学習できるように設計された。
我々はSTNが変換された画像の特徴マップと元の特徴マップを整列する能力を持っていないことを示す。
複雑な特徴を生かした代替STNアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2020-04-24T12:20:35Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。