論文の概要: A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons
- arxiv url: http://arxiv.org/abs/2006.06497v3
- Date: Sun, 15 Nov 2020 15:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:53:06.974366
- Title: A new inference approach for training shallow and deep generalized
linear models of noisy interacting neurons
- Title(参考訳): 雑音相互作用ニューロンの浅部および深部一般化線形モデル学習のための新しい推論手法
- Authors: Gabriel Mahuas, Giulio Isacchini, Olivier Marre, Ulisse Ferrari and
Thierry Mora
- Abstract要約: 我々は2段階の推論戦略を開発し、相互作用するニューロンの堅牢な一般化線形モデルを訓練する。
古典的手法と比較して、この方法で訓練されたモデルは性能が向上していることが示される。
この手法は深部畳み込みニューラルネットワークに拡張することができ、ニューロンの発火速度とその相関の予測精度の高いモデルが得られる。
- 参考スコア(独自算出の注目度): 4.899818550820575
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generalized linear models are one of the most efficient paradigms for
predicting the correlated stochastic activity of neuronal networks in response
to external stimuli, with applications in many brain areas. However, when
dealing with complex stimuli, the inferred coupling parameters often do not
generalize across different stimulus statistics, leading to degraded
performance and blowup instabilities. Here, we develop a two-step inference
strategy that allows us to train robust generalized linear models of
interacting neurons, by explicitly separating the effects of correlations in
the stimulus from network interactions in each training step. Applying this
approach to the responses of retinal ganglion cells to complex visual stimuli,
we show that, compared to classical methods, the models trained in this way
exhibit improved performance, are more stable, yield robust interaction
networks, and generalize well across complex visual statistics. The method can
be extended to deep convolutional neural networks, leading to models with high
predictive accuracy for both the neuron firing rates and their correlations.
- Abstract(参考訳): 一般化線形モデルは、外部刺激に応答してニューロンネットワークの相関した確率的活動を予測するための最も効率的なパラダイムの1つであり、多くの脳領域で応用されている。
しかし、複雑な刺激を扱う場合、推定されたカップリングパラメータは、異なる刺激統計をまたいで一般化しないことが多く、パフォーマンスの低下や不安定化に繋がる。
本稿では,各学習ステップにおける刺激の相関効果とネットワーク相互作用の影響を明示的に分離することにより,相互作用ニューロンのロバストな一般化線形モデルを訓練できる2段階推定手法を開発した。
このアプローチを網膜神経節細胞の複雑な視覚刺激に対する反応に適用することにより、古典的手法と比較して、この方法で訓練されたモデルは、より安定した性能を示し、堅牢な相互作用ネットワークを形成し、複雑な視覚統計をまたいでうまく一般化できることが示されている。
この方法は深い畳み込みニューラルネットワークに拡張することができ、ニューロンの発射速度とそれらの相関について高い予測精度を持つモデルに繋がる。
関連論文リスト
- Modeling dynamic neural activity by combining naturalistic video stimuli and stimulus-independent latent factors [5.967290675400836]
本稿では,刺激非依存の潜伏因子とともに映像入力を組み込んだ確率論的モデルを提案する。
マウスV1ニューロン反応のトレーニングとテストを行った結果、ビデオのみのモデルよりもログライクな結果が得られた。
その結果,学習した潜伏因子はマウスの行動と強く相関していることがわかった。
論文 参考訳(メタデータ) (2024-10-21T16:01:39Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Explosive neural networks via higher-order interactions in curved statistical manifolds [43.496401697112695]
我々は、高次現象を研究するためのプロトタイプモデルのクラスとして、曲面ニューラルネットワークを紹介した。
これらの曲線ニューラルネットワークは、メモリ検索を高速化する自己制御プロセスを実装している。
論文 参考訳(メタデータ) (2024-08-05T09:10:29Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Decorrelating neurons using persistence [29.25969187808722]
2つの正規化項は、クリッドの最小スパンニングツリーの重みから計算される。
ニューロン間の相関関係を最小化することで、正規化条件よりも低い精度が得られることを示す。
正規化の可微分性の証明を含むので、最初の効果的なトポロジカルな永続性に基づく正規化用語を開発することができる。
論文 参考訳(メタデータ) (2023-08-09T11:09:14Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles [3.625425081454343]
システム神経科学は、単一ニューロンのチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、潜伏変数とニューラルアクティビティの関係を制約するニューラル潜伏変数モデルにおいてエレガントに結合する。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
論文 参考訳(メタデータ) (2022-10-06T18:37:49Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。