論文の概要: Understanding the Role of Pathways in a Deep Neural Network
- arxiv url: http://arxiv.org/abs/2402.18132v1
- Date: Wed, 28 Feb 2024 07:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:55:23.844234
- Title: Understanding the Role of Pathways in a Deep Neural Network
- Title(参考訳): 深層ニューラルネットワークにおける経路の役割を理解する
- Authors: Lei Lyu, Chen Pang, Jihua Wang
- Abstract要約: 分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
- 参考スコア(独自算出の注目度): 4.456675543894722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated superior performance in artificial
intelligence applications, but the opaqueness of their inner working mechanism
is one major drawback in their application. The prevailing unit-based
interpretation is a statistical observation of stimulus-response data, which
fails to show a detailed internal process of inherent mechanisms of neural
networks. In this work, we analyze a convolutional neural network (CNN) trained
in the classification task and present an algorithm to extract the diffusion
pathways of individual pixels to identify the locations of pixels in an input
image associated with object classes. The pathways allow us to test the causal
components which are important for classification and the pathway-based
representations are clearly distinguishable between categories. We find that
the few largest pathways of an individual pixel from an image tend to cross the
feature maps in each layer that is important for classification. And the large
pathways of images of the same category are more consistent in their trends
than those of different categories. We also apply the pathways to understanding
adversarial attacks, object completion, and movement perception. Further, the
total number of pathways on feature maps in all layers can clearly discriminate
the original, deformed, and target samples.
- Abstract(参考訳): ディープニューラルネットワークは人工知能応用において優れた性能を示しているが、その内部動作機構の不透明さは、その応用における大きな欠点の1つである。
一般的な単位ベース解釈は、刺激応答データの統計的観察であり、ニューラルネットワーク固有のメカニズムの詳細な内部過程を示さない。
本研究では,分類タスクで訓練された畳み込みニューラルネットワーク(cnn)を分析し,個々の画素の拡散経路を抽出し,オブジェクトクラスに関連付けられた入力画像中の画素の位置を同定するアルゴリズムを提案する。
経路は分類に重要な因果成分をテストでき、経路に基づく表現はカテゴリー間で明確に区別できる。
画像から個々のピクセルの最も大きな経路は、分類に重要な各層の特徴地図を横断する傾向があることがわかりました。
そして、同じカテゴリの画像の大きな経路は、異なるカテゴリの画像よりも彼らのトレンドに一貫性がある。
また、敵の攻撃、物体の完成、運動知覚を理解するための経路を適用する。
さらに、全ての層における特徴写像上の経路の総数は、元の、変形した、およびターゲットのサンプルを明確に識別することができる。
関連論文リスト
- Finding Concept Representations in Neural Networks with Self-Organizing
Maps [2.817412580574242]
ニューラルネットワークの層活性化が抽象概念の神経表現にどのように対応するかを調べるために,自己組織化マップをどのように利用できるかを示す。
実験の結果, 概念の活性化マップの相対エントロピーは適切な候補であり, 概念の神経表現を同定し, 特定するための方法論として利用できることがわかった。
論文 参考訳(メタデータ) (2023-12-10T12:10:34Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z) - Distractor-Aware Neuron Intrinsic Learning for Generic 2D Medical Image
Classifications [30.62607811479386]
我々は、畳み込みニューラルネットワーク(CNN)が障害的干渉に弱いことを観察する。
本稿では,ニューロン固有の学習手法を提案することで,CNN特徴空間からの逸脱を探索する。
提案手法は最先端のアプローチに対して良好に機能する。
論文 参考訳(メタデータ) (2020-07-20T09:59:04Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。