論文の概要: Addressing the speed-accuracy simulation trade-off for adaptive spiking
neurons
- arxiv url: http://arxiv.org/abs/2311.11390v1
- Date: Sun, 19 Nov 2023 18:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:29:37.919792
- Title: Addressing the speed-accuracy simulation trade-off for adaptive spiking
neurons
- Title(参考訳): 適応スパイキングニューロンの速度精度シミュレーショントレードオフに対処する
- Authors: Luke Taylor, Andrew J King, Nicol S Harper
- Abstract要約: 本稿では,適応統合火災モデル(ALIF)をアルゴリズム的に再解釈する。
合成ベンチマークで小さなDTを用いて50ドル以上のトレーニングスピードアップを得る。
また、我々のモデルが皮質ニューロンの電気生理学的記録を迅速かつ正確に適合させる方法についても紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adaptive leaky integrate-and-fire (ALIF) model is fundamental within
computational neuroscience and has been instrumental in studying our brains
$\textit{in silico}$. Due to the sequential nature of simulating these neural
models, a commonly faced issue is the speed-accuracy trade-off: either
accurately simulate a neuron using a small discretisation time-step (DT), which
is slow, or more quickly simulate a neuron using a larger DT and incur a loss
in simulation accuracy. Here we provide a solution to this dilemma, by
algorithmically reinterpreting the ALIF model, reducing the sequential
simulation complexity and permitting a more efficient parallelisation on GPUs.
We computationally validate our implementation to obtain over a $50\times$
training speedup using small DTs on synthetic benchmarks. We also obtained a
comparable performance to the standard ALIF implementation on different
supervised classification tasks - yet in a fraction of the training time.
Lastly, we showcase how our model makes it possible to quickly and accurately
fit real electrophysiological recordings of cortical neurons, where very fine
sub-millisecond DTs are crucial for capturing exact spike timing.
- Abstract(参考訳): adaptive leaky integrated-and-fire(alif)モデルは、計算神経科学において基本的な概念であり、脳の研究に役立っている。
これらのニューラルネットワークの逐次的な性質のため、一般的に直面する問題は、速度精度のトレードオフである。小さな離散時間ステップ(DT)を用いてニューロンを正確にシミュレートするか、より大きなDTを使用してニューロンをシミュレートし、シミュレーション精度を損なう。
ここでは、アルゴリズムでalifモデルを再解釈し、逐次シミュレーションの複雑さを低減し、gpu上でより効率的な並列化を可能にすることで、このジレンマの解を提供する。
合成ベンチマークの小さなDTを用いて,50ドル以上のトレーニングスピードアップを得るために,我々の実装を計算的に検証した。
また、異なる教師付き分類タスクの標準的なalif実装と同等のパフォーマンスを得ることができました。
最後に、我々のモデルが皮質ニューロンの実際の電気生理学的記録を迅速かつ正確に適合させる方法を示し、これは非常に微細なサブミリ秒のDTが正確なスパイクタイミングを捉えるのに不可欠である。
関連論文リスト
- Model calibration using a parallel differential evolution algorithm in computational neuroscience: simulation of stretch induced nerve deficit [1.1026741683718058]
実験結果に対して校正する必要がある自由パラメータを複数有する複合機械電気生理学的モデルを用いる。
キャリブレーションは進化的アルゴリズム(差分進化, DE)を用いて実施され、6つの異なる損傷事例におけるパラメータのそれぞれの構成を評価する必要がある。
我々は,利用可能な計算能力をすべて活用して,マルチプロセッサ上で動作するOpenMPに基づく並列実装を開発した。
論文 参考訳(メタデータ) (2024-09-19T08:40:32Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - SpikiLi: A Spiking Simulation of LiDAR based Real-time Object Detection
for Autonomous Driving [0.0]
Spiking Neural Networksは、電力効率、計算効率、処理遅延を大幅に改善する新しいニューラルネットワーク設計アプローチである。
まず,複雑なディープラーニングタスク,すなわちLidarベースの3Dオブジェクト検出による自動運転への適用性について説明する。
論文 参考訳(メタデータ) (2022-06-06T20:05:17Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Efficient Neuromorphic Signal Processing with Loihi 2 [6.32784133039548]
本稿では, 短時間フーリエ変換(STFT)を従来のSTFTの47倍の出力帯域幅で計算する方法を示す。
また、音声分類タスクのためのRFニューロンのトレーニングのためのバックプロパゲーションを用いた有望な予備結果を示す。
論文 参考訳(メタデータ) (2021-11-05T22:37:05Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。