論文の概要: CVSNet: A Computer Implementation for Central Visual System of The Brain
- arxiv url: http://arxiv.org/abs/2305.19492v1
- Date: Wed, 31 May 2023 02:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 18:57:42.965748
- Title: CVSNet: A Computer Implementation for Central Visual System of The Brain
- Title(参考訳): CVSNet:脳の中枢視覚システムのためのコンピュータ実装
- Authors: Ruimin Gao, Hao Zou, Zhekai Duan
- Abstract要約: 我々はCVSNetという人工ニューラルネットワークを構築し、脳の中枢視覚システムのためのコンピュータ実装と見なすことができる。
CVSNetでは、ブロックは互いに異なり、視覚情報は3つの独立した経路と5つの異なるブロックを通って流れる。
アブレーション実験では、CVSNetのブロックによって抽出された情報を示し、以前のネットワークと比較する。
- 参考スコア(独自算出の注目度): 1.4456571495691557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In computer vision, different basic blocks are created around different
matrix operations, and models based on different basic blocks have achieved
good results. Good results achieved in vision tasks grants them rationality.
However, these experimental-based models also make deep learning long
criticized for principle and interpretability. Deep learning originated from
the concept of neurons in neuroscience, but recent designs detached natural
neural networks except for some simple concepts. In this paper, we build an
artificial neural network, CVSNet, which can be seen as a computer
implementation for central visual system of the brain. Each block in CVSNet
represents the same vision information as that in brains. In CVSNet, blocks
differs from each other and visual information flows through three independent
pathways and five different blocks. Thus CVSNet is completely different from
the design of all previous models, in which basic blocks are repeated to build
model and information between channels is mixed at the outset. In ablation
experiment, we show the information extracted by blocks in CVSNet and compare
with previous networks, proving effectiveness and rationality of blocks in
CVSNet from experiment side. And in the experiment of object recognition,
CVSNet achieves comparable results to ConvNets, Vision Transformers and MLPs.
- Abstract(参考訳): コンピュータビジョンでは、異なる行列演算を中心に異なる基本ブロックが作成され、異なる基本ブロックに基づくモデルが良い結果を得た。
ビジョンタスクで達成された良い結果は、合理性を与えます。
しかし、これらの実験に基づくモデルは、原理と解釈可能性に対して深い学習を長く批判する。
深層学習は神経科学におけるニューロンの概念から生まれたが、最近の設計ではいくつかの単純な概念を除いて自然ニューラルネットワークを分離している。
本稿では,脳の中枢視覚システムのためのコンピュータ実装と見なすことのできる人工ニューラルネットワークであるcvsnetを構築する。
cvsnetの各ブロックは、脳と同じ視覚情報を表している。
cvsnetでは、ブロックは互いに異なり、視覚情報は3つの独立した経路と5つの異なるブロックを流れる。
このようにcvsnetは、基本ブロックを繰り返してモデルを構築し、チャネル間の情報を最初に混合する、以前の全てのモデルの設計とは全く異なる。
アブレーション実験では,CVSNetのブロックから抽出した情報を従来のネットワークと比較し,実験側からCVSNetのブロックの有効性と合理性を示す。
オブジェクト認識の実験では、CVSNetはConvNets、Vision Transformers、MLPと同等の結果を得る。
関連論文リスト
- Finding Closure: A Closer Look at the Gestalt Law of Closure in Convolutional Neural Networks [4.406699323036466]
クロージャは、フィギュアを完全な全体として知覚するギャップを埋める能力である。
最近の研究では、ニューラルネットワークにおけるクロージャ効果が研究されている。
我々は、モーダルとアモーダルの両方を含むクロージャ効果をテストするために、よく計算されたデータセットを導入します。
VGG16とDenseNet-121はクロージャ効果を示し,他のCNNは可変結果を示した。
論文 参考訳(メタデータ) (2024-08-22T14:59:37Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - A Dual-Stream Neural Network Explains the Functional Segregation of
Dorsal and Ventral Visual Pathways in Human Brains [8.24969449883056]
我々は人間の目と脳にインスパイアされたデュアルストリーム視覚モデルを開発する。
入力レベルでは、モデルは2つの相補的な視覚パターンをサンプリングする。
バックエンドでは、モデルが分離された入力パターンを畳み込みニューラルネットワークの2つのブランチを通して処理する。
論文 参考訳(メタデータ) (2023-10-20T22:47:40Z) - VanillaNet: the Power of Minimalism in Deep Learning [110.74294309583482]
VanillaNetは、設計におけるエレガンスを受け入れるニューラルネットワークアーキテクチャである。
それは固有の複雑さの課題を克服し、リソースに制約のある環境に理想的です。
論文 参考訳(メタデータ) (2023-05-22T12:27:27Z) - Graphics Capsule: Learning Hierarchical 3D Face Representations from 2D
Images [82.5266467869448]
Inverse Graphics Capsule Network (IGC-Net) を提案する。
IGC-Netはまずオブジェクトをセマンティック一貫性のある部分レベルの記述の集合に分解し、それらをオブジェクトレベルの記述に組み立てて階層を構築する。
論文 参考訳(メタデータ) (2023-03-20T06:32:55Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Comparing Deep Neural Nets with UMAP Tour [12.910602784766562]
UMAP Tourは、現実世界のニューラルネットワークモデルの内部動作を視覚的に検査し、比較するために構築されている。
最先端のモデルで学んだ概念と、GoogLeNetやResNetといった両者の相違点を見出す。
論文 参考訳(メタデータ) (2021-10-18T15:59:13Z) - Deep Collective Learning: Learning Optimal Inputs and Weights Jointly in
Deep Neural Networks [5.6592403195043826]
ディープラーニングとコンピュータビジョン文学では、視覚データは、常に手動で設計されたコーディングスキームで表現される。
手動で設計した入力が、異なるタスクに対するDNNトレーニングに適しているのか、大胆に疑問を呈する。
本稿では,DNNの重みとDNNへの入力を同時に学習することを目的とした,深い集団学習のパラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-17T00:33:04Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。