論文の概要: A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations
- arxiv url: http://arxiv.org/abs/2212.06021v1
- Date: Mon, 12 Dec 2022 16:40:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 15:01:02.844700
- Title: A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations
- Title(参考訳): 空間的関係を学習する畳み込みニューラルネットワークの能力を明らかにする新しい特徴スクランブルアプローチ
- Authors: Amr Farahat, Felix Effenberger, Martin Vinck
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Convolutional neural networks (CNNs) are one of the most successful computer
vision systems to solve object recognition. Furthermore, CNNs have major
applications in understanding the nature of visual representations in the human
brain. Yet it remains poorly understood how CNNs actually make their decisions,
what the nature of their internal representations is, and how their recognition
strategies differ from humans. Specifically, there is a major debate about the
question of whether CNNs primarily rely on surface regularities of objects, or
whether they are capable of exploiting the spatial arrangement of features,
similar to humans. Here, we develop a novel feature-scrambling approach to
explicitly test whether CNNs use the spatial arrangement of features (i.e.
object parts) to classify objects. We combine this approach with a systematic
manipulation of effective receptive field sizes of CNNs as well as minimal
recognizable configurations (MIRCs) analysis. In contrast to much previous
literature, we provide evidence that CNNs are in fact capable of using
relatively long-range spatial relationships for object classification.
Moreover, the extent to which CNNs use spatial relationships depends heavily on
the dataset, e.g. texture vs. sketch. In fact, CNNs even use different
strategies for different classes within heterogeneous datasets (ImageNet),
suggesting CNNs have a continuous spectrum of classification strategies.
Finally, we show that CNNs learn the spatial arrangement of features only up to
an intermediate level of granularity, which suggests that intermediate rather
than global shape features provide the optimal trade-off between sensitivity
and specificity in object classification. These results provide novel insights
into the nature of CNN representations and the extent to which they rely on the
spatial arrangement of features for object classification.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は、オブジェクト認識を解く最も成功したコンピュータビジョンシステムの一つである。
さらに、CNNは人間の脳における視覚的表現の性質を理解するために大きな応用がある。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、まだ理解されていない。
具体的には、cnnが主に物体の表面の規則性に依存しているのか、それとも人間に似た特徴の空間的配置を活用できるのかという議論がある。
本稿では,cnnがオブジェクトの分類に特徴の空間的配置(すなわちオブジェクト部分)を使用するかどうかを明示的に検証する新しい特徴スクランブル手法を開発した。
我々は,この手法を,CNNの有効受容フィールドサイズを体系的に操作すると同時に,最小認識可能な構成(MIRC)解析と組み合わせる。
従来の文献とは対照的に,CNNが比較的長距離空間関係をオブジェクト分類に利用できることを示す。
さらに、cnnが空間的関係を使用する範囲は、テクスチャやスケッチといったデータセットに大きく依存する。
実際、CNNは異種データセット(ImageNet)内の異なるクラスに対して異なる戦略を使用しており、CNNは連続的な分類戦略を持っていることを示唆している。
最後に,cnnは粒度の中間レベルまでのみ特徴の空間的配置を学習できることを示し,大域的な形状特徴よりも中間的な特徴が物体分類における感度と特異性の最適なトレードオフをもたらすことを示唆する。
これらの結果は、cnn表現の性質と、それらがオブジェクト分類の特徴の空間的配置に依存する範囲に関する新しい洞察を与える。
関連論文リスト
- What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Wider Vision: Enriching Convolutional Neural Networks via Alignment to
External Knowledge Bases [0.3867363075280543]
CNNのミラーリングまたはアライメントを通じて、CNNのモデルを外部の知識ベースに説明し、拡張することを目指しています。
これにより、視覚機能ごとにセマンティックなコンテキストやラベルを与えることができます。
その結果,アライメント埋め込み空間では,ナレッジグラフのノードは類似した意味を持つcnn特徴ノードに近いことがわかった。
論文 参考訳(メタデータ) (2021-02-22T16:00:03Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - IAUnet: Global Context-Aware Feature Learning for Person
Re-Identification [106.50534744965955]
IAUブロックは、グローバル空間、時間、チャネルコンテキストを組み込むことができる。
軽量でエンドツーエンドのトレーニングが可能で、既存のCNNに簡単に接続してIAUnetを形成することができる。
実験の結果、IAUnetは画像とビデオの両方で最先端のreIDタスクに対して好意的に機能することがわかった。
論文 参考訳(メタデータ) (2020-09-02T13:07:10Z) - Decoding CNN based Object Classifier Using Visualization [6.666597301197889]
CNNのさまざまな畳み込み層で抽出される特徴の種類を視覚化する。
アクティベーションのヒートマップを可視化することは、CNNが画像内の異なるオブジェクトを分類し、ローカライズする方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-15T05:01:27Z) - Teaching CNNs to mimic Human Visual Cognitive Process & regularise
Texture-Shape bias [18.003188982585737]
コンピュータビジョンにおける最近の実験は、畳み込みニューラルネットワーク(CNN)を用いたモデルにおいて、テクスチャバイアスが最高の結果の主因であることを実証している。
コスト関数は、CNNが欲張りなアプローチを採り、テクスチャのような局所的な情報に対する生産性を向上させ、その結果、グローバルな統計を探索することができないと信じられている。
画像の再構成と分類に形状,テクスチャ,エッジなどの人間の解釈可能な特徴を活用するために,心理学における特徴統合理論から着想を得た,新しい直感的なアーキテクチャであるCognitiveCNNを提案する。
論文 参考訳(メタデータ) (2020-06-25T22:32:54Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。