論文の概要: Vision at A Glance: Interplay between Fine and Coarse Information
Processing Pathways
- arxiv url: http://arxiv.org/abs/2009.05101v1
- Date: Sun, 23 Aug 2020 06:46:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-26 03:13:11.134243
- Title: Vision at A Glance: Interplay between Fine and Coarse Information
Processing Pathways
- Title(参考訳): Vision at a Glance: きめ細かい情報処理経路と粗い情報処理経路の相互作用
- Authors: Zilong Ji, Xiaolong Zou, Tiejun Huang, Si Wu
- Abstract要約: 実際のニューラルネットワークでは、物体認識は2つの信号経路間の相互作用を伴う複雑なプロセスである。
この2つの経路間の相互作用は、視覚情報を迅速に、適応的に、堅牢に処理できる能力を持つ神経系を導くことが示唆されている。
本研究では,二つの経路間の相互作用に関連する計算上の優位性を解明する計算モデルを構築した。
- 参考スコア(独自算出の注目度): 22.730608238048454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object recognition is often viewed as a feedforward, bottom-up process in
machine learning, but in real neural systems, object recognition is a
complicated process which involves the interplay between two signal pathways.
One is the parvocellular pathway (P-pathway), which is slow and extracts fine
features of objects; the other is the magnocellular pathway (M-pathway), which
is fast and extracts coarse features of objects. It has been suggested that the
interplay between the two pathways endows the neural system with the capacity
of processing visual information rapidly, adaptively, and robustly. However,
the underlying computational mechanisms remain largely unknown. In this study,
we build a computational model to elucidate the computational advantages
associated with the interactions between two pathways. Our model consists of
two convolution neural networks: one mimics the P-pathway, referred to as
FineNet, which is deep, has small-size kernels, and receives detailed visual
inputs; the other mimics the M-pathway, referred to as CoarseNet, which is
shallow, has large-size kernels, and receives low-pass filtered or binarized
visual inputs. The two pathways interact with each other via a Restricted
Boltzmann Machine. We find that: 1) FineNet can teach CoarseNet through
imitation and improve its performance considerably; 2) CoarseNet can improve
the noise robustness of FineNet through association; 3) the output of CoarseNet
can serve as a cognitive bias to improve the performance of FineNet. We hope
that this study will provide insight into understanding visual information
processing and inspire the development of new object recognition architectures.
- Abstract(参考訳): 物体認識はしばしば、機械学習におけるフィードフォワード、ボトムアッププロセスと見なされるが、実際のニューラルネットワークでは、物体認識は2つの信号経路間の相互作用を伴う複雑なプロセスである。
一つはパーボセル経路(p-pathway)で、スローでオブジェクトの細かい特徴を抽出し、もう一つは高速で粗い特徴を抽出するマグノセル経路(m-pathway)である。
2つの経路間の相互作用は、視覚情報を迅速に、適応的に、堅牢に処理する能力を持つ神経系を導くことが示唆されている。
しかし、基礎となる計算機構はほとんど不明である。
本研究では,二つの経路間の相互作用に関連する計算上の優位性を解明する計算モデルを構築する。
我々のモデルは2つの畳み込みニューラルネットワークで構成されている: 1つはPパスを模倣し、もう1つは深く、小さなカーネルを持ち、詳細な視覚入力を受け取り、もう1つは、浅いコアスネットと呼ばれるMパスを模倣し、大きなカーネルを持ち、低パスフィルタリングまたは双対化視覚入力を受け取ります。
2つの経路は制限ボルツマン機械を介して相互作用する。
私たちはそれを見つけました
1) FineNetは、模倣を通じてCoarseNetを教えることができ、その性能を大幅に向上させることができる。
2 粗いネットは、ファインネットのノイズ堅牢性を向上させることができる。
3) CoarseNet の出力は,FineNet の性能向上のための認知バイアスとして機能する。
本研究は,視覚情報処理の理解と,新たなオブジェクト認識アーキテクチャの開発を促すための知見を提供する。
関連論文リスト
- Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - DIAL: Deep Interactive and Active Learning for Semantic Segmentation in
Remote Sensing [34.209686918341475]
我々は、ディープニューラルネットワークと人間のループでの協調を構築することを提案する。
簡単に言うと、エージェントはネットワークと反復的に対話して、当初欠陥があった予測を修正する。
本研究では,不確実性推定に基づくアクティブラーニングにより,ユーザを迅速に誤りに導くことができることを示す。
論文 参考訳(メタデータ) (2022-01-04T09:11:58Z) - Interpreting Attention Models with Human Visual Attention in Machine
Reading Comprehension [32.27600668393344]
機械読解における人間の視覚的注意と神経的注意の関係について検討する。
長寿命メモリ(LSTM)、畳み込みニューラルモデル(CNN)、XLNetトランスフォーマーアーキテクチャに基づくアートネットワークの状態を比較する。
論文 参考訳(メタデータ) (2020-10-13T13:51:57Z) - Rotate to Attend: Convolutional Triplet Attention Module [21.228370317693244]
3分岐構造を用いた新しい注意重み計算法である三重項注意法を提案する。
本手法は単純かつ効率的であり,アドオンモジュールとして従来のバックボーンネットワークに簡単に接続できる。
ImageNet-1k上の画像分類や,MSCOCOおよびPASCAL VOCデータセット上でのオブジェクト検出など,様々な課題に対する本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-06T21:31:00Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - WW-Nets: Dual Neural Networks for Object Detection [48.67090730174743]
ネットワーク接続重みの暗黙的なオブジェクト位置知識を用いて、オブジェクト検出タスクにおける選択的注意を誘導する、新しいディープ畳み込みニューラルネットワークフレームワークを提案する。
我々のアプローチはWhat-Where Nets (WW-Nets)と呼ばれ、人間の視覚経路の構造にインスパイアされている。
論文 参考訳(メタデータ) (2020-05-15T21:16:22Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。