論文の概要: Functional Connectome: Approximating Brain Networks with Artificial
Neural Networks
- arxiv url: http://arxiv.org/abs/2211.12935v1
- Date: Wed, 23 Nov 2022 13:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:55:19.718791
- Title: Functional Connectome: Approximating Brain Networks with Artificial
Neural Networks
- Title(参考訳): 機能的コネクトーム:ニューラルネットワークによる脳ネットワークの近似化
- Authors: Sihao Liu (Daniel), Augustine N Mavor-Parker, Caswell Barry
- Abstract要約: 訓練されたディープニューラルネットワークは、合成生物学的ネットワークによって実行される計算を高精度に捉えることができることを示す。
訓練されたディープニューラルネットワークは、新しい環境でゼロショットの一般化を実行可能であることを示す。
本研究は, システム神経科学における新規かつ有望な方向性を明らかにする。
- 参考スコア(独自算出の注目度): 1.952097552284465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aimed to explore the capability of deep learning to approximate the
function instantiated by biological neural circuits-the functional connectome.
Using deep neural networks, we performed supervised learning with firing rate
observations drawn from synthetically constructed neural circuits, as well as
from an empirically supported Boundary Vector Cell-Place Cell network. The
performance of trained networks was quantified using a range of criteria and
tasks. Our results show that deep neural networks were able to capture the
computations performed by synthetic biological networks with high accuracy, and
were highly data efficient and robust to biological plasticity. We show that
trained deep neural networks are able to perform zero-shot generalisation in
novel environments, and allows for a wealth of tasks such as decoding the
animal's location in space with high accuracy. Our study reveals a novel and
promising direction in systems neuroscience, and can be expanded upon with a
multitude of downstream applications, for example, goal-directed reinforcement
learning.
- Abstract(参考訳): 生体神経回路, 機能コネクトームによってインスタンス化された関数を近似する深層学習の能力を探究することを目的とした。
ディープニューラルネットワークを用いて,人工的に構築したニューラルネットワークと,実験的に支持された境界ベクトル型セルプレースセルネットワークによる発火速度観測を行い,教師あり学習を行った。
訓練されたネットワークの性能は、様々な基準とタスクを用いて定量化した。
その結果, 深層ニューラルネットワークは, 合成生物ネットワークによる計算を高精度に捉えることができ, データの効率が高く, 生体可塑性にも頑健であった。
訓練された深層ニューラルネットワークは、新しい環境でゼロショットの一般化を実行でき、宇宙における動物の位置を高精度に復号するといった、豊富なタスクを実現できることを示す。
本研究は,システム神経科学における新しい,有望な方向性を明らかにし,目標指向強化学習など,多数の下流応用によって拡張することができる。
関連論文リスト
- Retinal Vessel Segmentation via Neuron Programming [17.609169389489633]
本稿では,神経レベルでのネットワークの表現能力を高めるため,ニューラルネット設計における新しいアプローチであるニューラルネットプログラミングについて紹介する。
総合的な実験により、ニューロンプログラミングは網膜の血液分画において競合的な性能を発揮することが検証された。
論文 参考訳(メタデータ) (2024-11-17T16:03:30Z) - Design and development of opto-neural processors for simulation of
neural networks trained in image detection for potential implementation in
hybrid robotics [0.0]
リビングニューラルネットワークは、消費電力の低減、処理の高速化、生物学的リアリズムの利点を提供する。
本研究は,オプトジェネティクスによる精密アクティベーションを用いたSTDPベースのアルゴリズムを逆伝播させることにより,間接的に訓練されたシミュレーション型生きたニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T04:42:49Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Deep Spiking Convolutional Neural Network for Single Object Localization
Based On Deep Continuous Local Learning [0.0]
グレースケール画像における単一物体の局所化のための深部畳み込みスパイクニューラルネットワークを提案する。
Oxford-IIIT-Petで報告された結果は、教師付き学習アプローチによるスパイクニューラルネットワークの活用を検証する。
論文 参考訳(メタデータ) (2021-05-12T12:02:05Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Theoretical Analysis of the Advantage of Deepening Neural Networks [0.0]
ディープニューラルネットワークによって計算可能な関数の表現性を知ることが重要である。
この2つの基準により,深層ニューラルネットワークの表現性を向上させる上で,各層におけるユニットの増加よりも,レイヤの増加の方が効果的であることを示す。
論文 参考訳(メタデータ) (2020-09-24T04:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。