論文の概要: Supervised Parameter Estimation of Neuron Populations from Multiple
Firing Events
- arxiv url: http://arxiv.org/abs/2210.01767v1
- Date: Sun, 2 Oct 2022 03:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 13:24:06.922581
- Title: Supervised Parameter Estimation of Neuron Populations from Multiple
Firing Events
- Title(参考訳): 複数事象からのニューロン集団の予測パラメータの推定
- Authors: Long Le, Yao Li
- Abstract要約: 本研究では,一対のスパイキング系列とパラメータラベルからなる学習セットから,ニューロン集団のパラメータを自動的に学習する手法について,教師あり学習を通して検討した。
我々は、ニューロンモデルを用いて、異なるパラメータ設定での計算において多くのニューロン集団をシミュレートする。
次に、遺伝的検索、ベイズ逐次推定、ランダムウォーク近似モデルなどの古典的手法と比較する。
- 参考スコア(独自算出の注目度): 3.2826301276626273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The firing dynamics of biological neurons in mathematical models is often
determined by the model's parameters, representing the neurons' underlying
properties. The parameter estimation problem seeks to recover those parameters
of a single neuron or a neuron population from their responses to external
stimuli and interactions between themselves. Most common methods for tackling
this problem in the literature use some mechanistic models in conjunction with
either a simulation-based or solution-based optimization scheme. In this paper,
we study an automatic approach of learning the parameters of neuron populations
from a training set consisting of pairs of spiking series and parameter labels
via supervised learning. Unlike previous work, this automatic learning does not
require additional simulations at inference time nor expert knowledge in
deriving an analytical solution or in constructing some approximate models. We
simulate many neuronal populations with different parameter settings using a
stochastic neuron model. Using that data, we train a variety of supervised
machine learning models, including convolutional and deep neural networks,
random forest, and support vector regression. We then compare their performance
against classical approaches including a genetic search, Bayesian sequential
estimation, and a random walk approximate model. The supervised models almost
always outperform the classical methods in parameter estimation and spike
reconstruction errors, and computation expense. Convolutional neural network,
in particular, is the best among all models across all metrics. The supervised
models can also generalize to out-of-distribution data to a certain extent.
- Abstract(参考訳): 数学モデルにおける生体ニューロンの発火ダイナミクスは、しばしばモデルのパラメータによって決定され、ニューロンの基底特性を表す。
パラメータ推定問題は、単一ニューロンまたはニューロン集団のそれらのパラメータを、外的刺激に対する反応や相互の相互作用から回復しようとするものである。
文献でこの問題に取り組む最も一般的な方法は、シミュレーションベースまたは解ベースの最適化スキームと組み合わせていくつかの機械モデルを用いる。
本稿では,教師付き学習によるスパイキング系列とパラメータラベルのペアからなる学習セットから,ニューロン集団のパラメータを自動学習する手法について検討する。
従来の研究とは異なり、この自動学習は推論時の追加シミュレーションや、分析解の導出や近似モデルの構築に専門家の知識を必要としない。
確率ニューロンモデルを用いてパラメータ設定の異なる多くのニューロン集団をシミュレートする。
このデータを用いて、畳み込みニューラルネットワークや深層ニューラルネットワーク、ランダムフォレスト、ベクトル回帰のサポートなど、さまざまな教師付き機械学習モデルをトレーニングする。
次に, 遺伝的探索法, ベイズ列推定法, ランダムウォーク近似モデルなどの古典的手法との比較を行った。
教師付きモデルは,パラメータ推定やスパイク復元誤差,計算コストにおいて,古典的手法よりも常に優れていた。
特に畳み込みニューラルネットワークは、すべてのメトリクスにわたって最も優れたモデルです。
教師付きモデルは、配信外データにある程度一般化することもできる。
関連論文リスト
- Latent Variable Sequence Identification for Cognitive Models with Neural Bayes Estimation [7.7227297059345466]
本稿では,ニューラルベイズ推定を拡張して,実験データと対象変数空間との直接マッピングを学習する手法を提案する。
我々の研究は、リカレントニューラルネットワークとシミュレーションベースの推論を組み合わせることで、潜在変数配列を特定することで、研究者がより広範な認知モデルにアクセスできるようになることを強調している。
論文 参考訳(メタデータ) (2024-06-20T21:13:39Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Neural parameter calibration for large-scale multi-agent models [0.7734726150561089]
本稿では,ニューラルネットワークを用いてパラメータの精度の高い確率密度を求める手法を提案する。
2つの組み合わせは、非常に大きなシステムであっても、モデルパラメータの密度を素早く見積もることができる強力なツールを作成する。
論文 参考訳(メタデータ) (2022-09-27T17:36:26Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。