論文の概要: Explaining V1 Properties with a Biologically Constrained Deep Learning
Architecture
- arxiv url: http://arxiv.org/abs/2305.11275v2
- Date: Thu, 25 May 2023 20:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 19:45:46.598735
- Title: Explaining V1 Properties with a Biologically Constrained Deep Learning
Architecture
- Title(参考訳): 生物学的制約のあるディープラーニングアーキテクチャによるV1特性の説明
- Authors: Galen Pogoncheff, Jacob Granley, Michael Beyeler
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、生物学的特異性の欠如にもかかわらず、腹側視覚の流れの有望なモデルとして登場した。
中心周囲のアンタゴニズム,局所受容場,チューニング正規化,皮質拡大をシミュレートするアーキテクチャコンポーネントの統合により,モデル-V1アライメントの大幅な改善が示された。
我々は,これまでにないV1の説明に寄与するアーキテクチャ要素の集合を体系的に確立し,NeuroAIの分野における重要な進歩を浮き彫りにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have recently emerged as promising
models of the ventral visual stream, despite their lack of biological
specificity. While current state-of-the-art models of the primary visual cortex
(V1) have surfaced from training with adversarial examples and extensively
augmented data, these models are still unable to explain key neural properties
observed in V1 that arise from biological circuitry. To address this gap, we
systematically incorporated neuroscience-derived architectural components into
CNNs to identify a set of mechanisms and architectures that comprehensively
explain neural activity in V1. We show drastic improvements in model-V1
alignment driven by the integration of architectural components that simulate
center-surround antagonism, local receptive fields, tuned normalization, and
cortical magnification. Upon enhancing task-driven CNNs with a collection of
these specialized components, we uncover models with latent representations
that yield state-of-the-art explanation of V1 neural activity and tuning
properties. Our results highlight an important advancement in the field of
NeuroAI, as we systematically establish a set of architectural components that
contribute to unprecedented explanation of V1. The neuroscience insights that
could be gleaned from increasingly accurate in-silico models of the brain have
the potential to greatly advance the fields of both neuroscience and artificial
intelligence.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、生物学的特異性の欠如にもかかわらず、最近、腹側視覚の流れの有望なモデルとして登場した。
一次視覚野(v1)の現在の最先端モデルは、敵対的な例と広範囲な拡張データによる訓練から表面化しているが、これらのモデルは、生物学的回路から生じるv1で観察される重要な神経特性を説明することができない。
このギャップに対処するため、我々は神経科学由来のアーキテクチャコンポーネントをCNNに体系的に組み込んで、V1における神経活動を包括的に説明するメカニズムとアーキテクチャのセットを特定した。
モデルv1アライメントの大幅な改善は,中心回りのアンタゴニズム,局所受容場,調律正規化,皮質拡大をシミュレートするアーキテクチャコンポーネントの統合によるものである。
タスク駆動型CNNをこれらの特殊なコンポーネントの集合で強化すると、V1神経活動とチューニング特性の最先端の説明をもたらす潜在表現を持つモデルを明らかにする。
我々は,これまでにないV1の説明に寄与するアーキテクチャ要素の集合を体系的に確立し,NeuroAIの分野における重要な進歩を浮き彫りにした。
脳のシリコン内モデルから得られる神経科学の洞察は、神経科学と人工知能の両方の分野を大きく前進させる可能性がある。
関連論文リスト
- Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Neural Echos: Depthwise Convolutional Filters Replicate Biological
Receptive Fields [56.69755544814834]
哺乳類網膜で観察される生体受容野を,深部核が効果的に複製していることを示す証拠を提示する。
生体受容の分野からインスピレーションを得る手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T18:06:22Z) - Astromorphic Self-Repair of Neuromorphic Hardware Systems [0.8958368012475248]
本稿では,グリア細胞の自己修復,特にアストロサイトの役割について検討する。
ハードウェア・ソフトウェアの共同設計分析は、生体形態の天体制御が、ハードウェアの現実的な欠陥を自己修復する可能性があることを明らかにしている。
論文 参考訳(メタデータ) (2022-09-15T16:23:45Z) - Top-down inference in an early visual cortex inspired hierarchical
Variational Autoencoder [0.0]
我々は変分オートエンコーダの進歩を利用して、自然画像に基づいて訓練された疎い符号化階層型VAEを用いて、初期視覚野を調査する。
一次および二次視覚皮質に見られるものと類似した表現は、軽度の誘導バイアスの下で自然に現れる。
生成モデルを用いた2つの計算のシグネチャに対して,ニューロサイエンスに着想を得た認識モデルの選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-06-01T12:21:58Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Evolving spiking neuron cellular automata and networks to emulate in
vitro neuronal activity [0.0]
我々は生体内における生体ニューロンの行動パターンをエミュレートするスパイキング神経系を生産する。
我々のモデルは、ネットワーク全体の同期レベルを生成できた。
トップパフォーマンスモデルのゲノムは、生成した活動の複雑さを決定する上で、モデル内の接続の興奮性と密度が重要な役割を果たすことを示している。
論文 参考訳(メタデータ) (2021-10-15T17:55:04Z) - Modelling Neuronal Behaviour with Time Series Regression: Recurrent
Neural Networks on C. Elegans Data [0.0]
我々は、C. Elegansの神経システムを、異なるニューラルネットワークアーキテクチャを用いてデータ駆動モデルでモデル化し、シミュレートする方法を示す。
隠れ層の大きさが4単位のGRUモデルでは,異なる刺激に対するシステムの応答を高精度に再現可能であることを示す。
論文 参考訳(メタデータ) (2021-07-01T10:39:30Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Emergence of Lie symmetries in functional architectures learned by CNNs [63.69764116066748]
本研究では,自然画像の学習において,畳み込みニューラルネットワーク(CNN)の初期層における対称性の自発的発達について検討する。
私たちのアーキテクチャは、生体視覚システムの初期段階を模倣するために構築されています。
論文 参考訳(メタデータ) (2021-04-17T13:23:26Z) - Generalizable Machine Learning in Neuroscience using Graph Neural
Networks [0.0]
ニューラルネットワークは、ニューロンレベルの動的予測と行動状態の分類の両方において、非常によく機能することを示す。
実験の結果, グラフニューラルネットワークは構造モデルよりも優れ, 目に見えない生物の一般化に優れていた。
論文 参考訳(メタデータ) (2020-10-16T18:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。