論文の概要: A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons
- arxiv url: http://arxiv.org/abs/2006.06497v3
- Date: Sun, 15 Nov 2020 15:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:53:06.974366
- Title: A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons
- Title(参考訳): 雑音相互作用ニューロンの浅部および深部一般化線形モデル学習のための新しい推論手法
- Authors: Gabriel Mahuas, Giulio Isacchini, Olivier Marre, Ulisse Ferrari and
Thierry Mora
- Abstract要約: 我々は2段階の推論戦略を開発し、相互作用するニューロンの堅牢な一般化線形モデルを訓練する。
古典的手法と比較して、この方法で訓練されたモデルは性能が向上していることが示される。
この手法は深部畳み込みニューラルネットワークに拡張することができ、ニューロンの発火速度とその相関の予測精度の高いモデルが得られる。
- 参考スコア(独自算出の注目度): 4.899818550820575
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generalized linear models are one of the most efficient paradigms for
predicting the correlated stochastic activity of neuronal networks in response
to external stimuli, with applications in many brain areas. However, when
dealing with complex stimuli, the inferred coupling parameters often do not
generalize across different stimulus statistics, leading to degraded
performance and blowup instabilities. Here, we develop a two-step inference
strategy that allows us to train robust generalized linear models of
interacting neurons, by explicitly separating the effects of correlations in
the stimulus from network interactions in each training step. Applying this
approach to the responses of retinal ganglion cells to complex visual stimuli,
we show that, compared to classical methods, the models trained in this way
exhibit improved performance, are more stable, yield robust interaction
networks, and generalize well across complex visual statistics. The method can
be extended to deep convolutional neural networks, leading to models with high
predictive accuracy for both the neuron firing rates and their correlations.
- Abstract(参考訳): 一般化線形モデルは、外部刺激に応答してニューロンネットワークの相関した確率的活動を予測するための最も効率的なパラダイムの1つであり、多くの脳領域で応用されている。
しかし、複雑な刺激を扱う場合、推定されたカップリングパラメータは、異なる刺激統計をまたいで一般化しないことが多く、パフォーマンスの低下や不安定化に繋がる。
本稿では,各学習ステップにおける刺激の相関効果とネットワーク相互作用の影響を明示的に分離することにより,相互作用ニューロンのロバストな一般化線形モデルを訓練できる2段階推定手法を開発した。
このアプローチを網膜神経節細胞の複雑な視覚刺激に対する反応に適用することにより、古典的手法と比較して、この方法で訓練されたモデルは、より安定した性能を示し、堅牢な相互作用ネットワークを形成し、複雑な視覚統計をまたいでうまく一般化できることが示されている。
この方法は深い畳み込みニューラルネットワークに拡張することができ、ニューロンの発射速度とそれらの相関について高い予測精度を持つモデルに繋がる。
関連論文リスト
- Decorrelating neurons using persistence [29.25969187808722]
2つの正規化項は、クリッドの最小スパンニングツリーの重みから計算される。
ニューロン間の相関関係を最小化することで、正規化条件よりも低い精度が得られることを示す。
正規化の可微分性の証明を含むので、最初の効果的なトポロジカルな永続性に基づく正規化用語を開発することができる。
論文 参考訳(メタデータ) (2023-08-09T11:09:14Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles [3.625425081454343]
システム神経科学は、単一ニューロンのチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、潜伏変数とニューラルアクティビティの関係を制約するニューラル潜伏変数モデルにおいてエレガントに結合する。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
論文 参考訳(メタデータ) (2022-10-06T18:37:49Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Recurrent networks improve neural response prediction and provide
insights into underlying cortical circuits [3.340380180141713]
CNNモデルは、初期の視覚皮質ニューロンの自然画像に対する単一ニューロンの反応を予測する最先端モデルとして証明されている。
我々はこれらのモデルを反復的な畳み込み層で拡張し、よく知られた大脳皮質の大規模な再発を反映する。
V1ニューロンで見られるような時間的応答ダイナミクスと古典的文脈変調を,長期にわたる広視野画像提示のトレーニングにおいて,適切なモデルの繰り返し回路に隠された単位が示されることが判明した。
論文 参考訳(メタデータ) (2021-10-02T15:46:56Z) - Online neural connectivity estimation with ensemble stimulation [5.156484100374058]
スパースネットワークにおけるこのプロセスの効率を大幅に向上させる,ノイズの多いグループテストに基づく手法を提案する。
人口規模に比例して対数的にしか成長しない多数のテストにより、二項化ネットワーク接続を回復可能であることを示す。
また、ネット上の数万のニューロンのネットワークに対して、接続性を推測する可能性も示しています。
論文 参考訳(メタデータ) (2020-07-27T23:47:03Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。