論文の概要: Fitting summary statistics of neural data with a differentiable spiking
network simulator
- arxiv url: http://arxiv.org/abs/2106.10064v1
- Date: Fri, 18 Jun 2021 11:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 21:13:31.916515
- Title: Fitting summary statistics of neural data with a differentiable spiking
network simulator
- Title(参考訳): 微分可能なスパイクネットワークシミュレータを用いたニューラルネットワークの要約統計の適合化
- Authors: Guillaume Bellec, Shuqi Wang, Alireza Modirshanechi, Johanni Brea,
Wulfram Gerstner
- Abstract要約: 一般的なアプローチは、記録された活動の可能性を最大化するパラメータを持つ確率論的リカレントスパイクネットワークで脳領域をモデル化することである。
結果のモデルが現実的なニューラルアクティビティを生成できないことを示す。
模擬活動と記録活動の相違を測る用語でログ類似度を高めることを提案する。
- 参考スコア(独自算出の注目度): 4.987315310656657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fitting network models to neural activity is becoming an important tool in
neuroscience. A popular approach is to model a brain area with a probabilistic
recurrent spiking network whose parameters maximize the likelihood of the
recorded activity. Although this is widely used, we show that the resulting
model does not produce realistic neural activity and wrongly estimates the
connectivity matrix when neurons that are not recorded have a substantial
impact on the recorded network. To correct for this, we suggest to augment the
log-likelihood with terms that measure the dissimilarity between simulated and
recorded activity. This dissimilarity is defined via summary statistics
commonly used in neuroscience, and the optimization is efficient because it
relies on back-propagation through the stochastically simulated spike trains.
We analyze this method theoretically and show empirically that it generates
more realistic activity statistics and recovers the connectivity matrix better
than other methods.
- Abstract(参考訳): 神経活動にネットワークモデルを適用することは、神経科学の重要なツールになりつつある。
一般的なアプローチは、記録された活動の可能性を最大化するパラメータを持つ確率論的リカレントスパイクネットワークで脳領域をモデル化することである。
これは広く用いられているが、得られたモデルが現実的な神経活動を生成していないことを示し、記録されていないニューロンが記録されたネットワークに重大な影響を与える場合に、接続行列を誤って推定する。
このことを正すために,シミュレーションと記録された活動の類似性を測定する用語を用いて,ログの類似性を高めることを提案する。
この相違性は神経科学でよく用いられる要約統計によって定義され、その最適化は確率的にシミュレートされたスパイク列車によるバックプロパゲーションに依存するため効率的である。
本手法を理論的に解析し,より現実的な活動統計を生成し,他の手法よりも接続マトリックスを回復できることを実証的に示す。
関連論文リスト
- Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - SpikiLi: A Spiking Simulation of LiDAR based Real-time Object Detection
for Autonomous Driving [0.0]
Spiking Neural Networksは、電力効率、計算効率、処理遅延を大幅に改善する新しいニューラルネットワーク設計アプローチである。
まず,複雑なディープラーニングタスク,すなわちLidarベースの3Dオブジェクト検出による自動運転への適用性について説明する。
論文 参考訳(メタデータ) (2022-06-06T20:05:17Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Online neural connectivity estimation with ensemble stimulation [5.156484100374058]
スパースネットワークにおけるこのプロセスの効率を大幅に向上させる,ノイズの多いグループテストに基づく手法を提案する。
人口規模に比例して対数的にしか成長しない多数のテストにより、二項化ネットワーク接続を回復可能であることを示す。
また、ネット上の数万のニューロンのネットワークに対して、接続性を推測する可能性も示しています。
論文 参考訳(メタデータ) (2020-07-27T23:47:03Z) - Efficient Inference of Flexible Interaction in Spiking-neuron Networks [41.83710212492543]
非線形ホークス法を用いて、ニューロン間の興奮的または抑制的な相互作用をモデル化する。
提案アルゴリズムは, 相互作用の時間的ダイナミクスを推定し, ニューラルスパイク列の根底にある機能的接続を明らかにする。
論文 参考訳(メタデータ) (2020-06-23T09:10:30Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。