論文の概要: RetinotopicNet: An Iterative Attention Mechanism Using Local Descriptors
with Global Context
- arxiv url: http://arxiv.org/abs/2005.05701v1
- Date: Tue, 12 May 2020 11:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:50:20.993662
- Title: RetinotopicNet: An Iterative Attention Mechanism Using Local Descriptors
with Global Context
- Title(参考訳): RetinotopicNet:グローバルコンテキストを持つローカル記述子を用いた反復的注意機構
- Authors: Thomas Kurbiel and Shahrzad Khaleghian
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は近年のコンピュータビジョン研究における多くの進歩の原動力となった。
CNNはスケールと回転不変性に欠けており、自然画像において最も頻繁に遭遇する変換の2つである。
自然が人間の脳の問題をいかに解決したかを再現し、効率的な解法を開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Convolutional Neural Networks (CNNs) were the driving force behind many
advancements in Computer Vision research in recent years. This progress has
spawned many practical applications and we see an increased need to efficiently
move CNNs to embedded systems today. However traditional CNNs lack the property
of scale and rotation invariance: two of the most frequently encountered
transformations in natural images. As a consequence CNNs have to learn
different features for same objects at different scales. This redundancy is the
main reason why CNNs need to be very deep in order to achieve the desired
accuracy. In this paper we develop an efficient solution by reproducing how
nature has solved the problem in the human brain. To this end we let our CNN
operate on small patches extracted using the log-polar transform, which is
known to be scale and rotation equivariant. Patches extracted in this way have
the nice property of magnifying the central field and compressing the
periphery. Hence we obtain local descriptors with global context information.
However the processing of a single patch is usually not sufficient to achieve
high accuracies in e.g. classification tasks. We therefore successively jump to
several different locations, called saccades, thus building an understanding of
the whole image. Since log-polar patches contain global context information, we
can efficiently calculate following saccades using only the small patches.
Saccades efficiently compensate for the lack of translation equivariance of the
log-polar transform.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は近年のコンピュータビジョン研究における多くの進歩の原動力となった。
この進歩は多くの実用的な応用を生み出しており、CNNを組み込みシステムに効率的に移動させる必要性が高まっている。
しかし、従来のCNNはスケールと回転不変性に欠けており、自然画像において最も頻繁に遭遇する変換の2つである。
その結果、CNNは異なるスケールで同じオブジェクトの異なる機能を学ぶ必要がある。
この冗長性は、CNNが所望の精度を達成するために非常に深くなければならない主な理由である。
本稿では,自然が人間の脳の問題をいかに解決したかを再現し,効率的な解法を開発する。
この目的のために、cnn は対極変換を用いて抽出された小さなパッチ上で動作させ、これはスケールと回転同変であることが知られている。
このように抽出されたパッチは、中央の磁場を拡大し、周囲を圧縮する優れた特性を有する。
したがって、グローバルコンテキスト情報を持つローカルディスクリプタを得る。
しかし、単一のパッチの処理は通常、例えば分類タスクにおいて高い精度を達成するには不十分である。
したがって、我々はササードと呼ばれるいくつかの異なる場所へ連続してジャンプし、画像全体の理解を構築する。
ログポーラパッチにはグローバルなコンテキスト情報が含まれているため、小さなパッチのみを使用して、ササードを効率的に計算できる。
サッケードは対極変換の変換等価性の欠如を効率的に補う。
関連論文リスト
- DAS: A Deformable Attention to Capture Salient Information in CNNs [2.321323878201932]
自己注意は、グローバル情報へのアクセスを改善するが、計算オーバーヘッドを増大させる。
本稿では,DASと呼ばれる高速でシンプルな完全畳み込み手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T18:49:58Z) - RIC-CNN: Rotation-Invariant Coordinate Convolutional Neural Network [56.42518353373004]
回転不変座標変換(RIC-C)と呼ばれる新しい畳み込み演算を提案する。
CNNの標準畳み込み層を対応するRCC-Cに置き換えることで、RCC-CNNを導出することができる。
RIC-CNNはMNISTの回転試験データセット上で最先端の分類を実現することが観察できる。
論文 参考訳(メタデータ) (2022-11-21T19:27:02Z) - TransGeo: Transformer Is All You Need for Cross-view Image
Geo-localization [81.70547404891099]
クロスビュー画像のジオローカライゼーションのためのCNNに基づく手法は,大域的相関をモデル化できない。
本稿では,これらの制約に対処するためのトランスジェオ (TransGeo) を提案する。
TransGeoは、都市と農村の両方のデータセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-03-31T21:19:41Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - What Does CNN Shift Invariance Look Like? A Visualization Study [87.79405274610681]
畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
論文 参考訳(メタデータ) (2020-11-09T01:16:30Z) - Learning Translation Invariance in CNNs [1.52292571922932]
CNNが翻訳に'アーキテクチャ的に不変'ではないとしても、実際に'学習'は翻訳に不変であることを示す。
本研究では,この事前学習が内部ネットワーク表現に与える影響について検討した。
これらの実験は、適切な「遅延」特性を持つ環境でネットワークを事前学習することで、ネットワークが深い知覚規則を学習できることを示す。
論文 参考訳(メタデータ) (2020-11-06T09:39:27Z) - Localized convolutional neural networks for geospatial wind forecasting [0.0]
畳み込みニューラルネットワーク(CNN)は多くの空間データに関して正の特性を有する。
本研究では,CNNがグローバルな特徴に加えて,局所的な特徴を学習することのできる局所畳み込みニューラルネットワークを提案する。
どのような畳み込みレイヤにも追加可能で、簡単にエンドツーエンドのトレーニングが可能で、最小限の複雑さを導入でき、CNNは必要な範囲でそのメリットの大部分を維持できる。
論文 参考訳(メタデータ) (2020-05-12T17:14:49Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。