論文の概要: Training event-based neural networks with exact gradients via Differentiable ODE Solving in JAX
- arxiv url: http://arxiv.org/abs/2603.08146v1
- Date: Mon, 09 Mar 2026 09:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.732236
- Title: Training event-based neural networks with exact gradients via Differentiable ODE Solving in JAX
- Title(参考訳): JAXにおける微分可能なODEソルビングを用いたイベントベースニューラルネットワークの訓練
- Authors: Lukas König, Manuel Kuhn, David Kappel, Anand Subramoney,
- Abstract要約: Eventaxは、スパイクニューラルネットワークをトレーニングするためのフレームワークである。
微分可能な数値ODEソルバとイベントベースのスパイク処理を組み合わせる。
幅広いニューロンモデル、損失関数、ネットワークアーキテクチャをサポートしており、容易に拡張できる。
- 参考スコア(独自算出の注目度): 0.869928033942254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing frameworks for gradient-based training of spiking neural networks face a trade-off: discrete-time methods using surrogate gradients support arbitrary neuron models but introduce gradient bias and constrain spike-time resolution, while continuous-time methods that compute exact gradients require analytical expressions for spike times and state evolution, restricting them to simple neuron types such as Leaky Integrate and Fire (LIF). We introduce the Eventax framework, which resolves this trade-off by combining differentiable numerical ODE solvers with event-based spike handling. Built in JAX, our frame-work uses Diffrax ODE-solvers to compute gradients that are exact with respect to the forward simulation for any neuron model defined by ODEs . It also provides a simple API where users can specify just the neuron dynamics, spike conditions, and reset rules. Eventax prioritises modelling flexibility, supporting a wide range of neuron models, loss functions, and network architectures, which can be easily extended. We demonstrate Eventax on multiple benchmarks, including Yin-Yang and MNIST, using diverse neuron models such as Leaky Integrate-and-fire (LIF), Quadratic Integrate-and-fire (QIF), Exponential integrate-and-fire (EIF), Izhikevich and Event-based Gated Recurrent Unit (EGRU) with both time-to-first-spike and state-based loss functions, demonstrating its utility for prototyping and testing event-based architectures trained with exact gradients. We also demonstrate the application of this framework for more complex neuron types by implementing a multi-compartment neuron that uses a model of dendritic spikes in human layer 2/3 cortical Pyramidal neurons for computation. Code available at https://github.com/efficient-scalable-machine-learning/eventax.
- Abstract(参考訳): 代理勾配を用いた離散時間法は任意のニューロンモデルをサポートするが、勾配バイアスと制約スパイク時間分解を導入する。一方、正確な勾配を計算する連続時間法はスパイク時間と状態の進化を解析的に表現し、Leaky IntegrateやFire (LIF)のような単純なニューロンタイプに制限する。
Eventaxフレームワークを導入し、微分可能な数値ODEソルバとイベントベースのスパイク処理を組み合わせることで、このトレードオフを解決する。
JAXで構築された我々のフレームワークは、Diffrax ODE-solverを使用して、ODEによって定義された任意のニューロンモデルのフォワードシミュレーションに対して正確な勾配を計算する。
また、ユーザーはニューロンのダイナミクス、スパイク条件、リセットルールだけを指定できるシンプルなAPIも提供する。
Eventaxは柔軟性をモデル化し、幅広いニューロンモデル、損失関数、ネットワークアーキテクチャをサポートし、容易に拡張できる。
我々は,Yin-Yang と MNIST を含む複数のベンチマークにおいて,Leaky Integrate-and-fire (LIF), Quadratic Integrate-and-fire (QIF), Exponential Integration-and-fire (EIF), Izhikevich と Event-based Gated Recurrent Unit (EGRU) などのさまざまなニューロンモデルを用いた Eventax のデモを行った。
また、このフレームワークのより複雑なニューロンタイプへの応用を、ヒト2/3皮質錐体ニューロンにおける樹状突起スパイクのモデルを用いて、計算に利用することも示す。
コードはhttps://github.com/ efficient-scalable-machine-learning/eventaxで公開されている。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Physics-informed reduced order model with conditional neural fields [4.5355909674008865]
本研究では、パラメータ化偏微分方程式(PDE)の解を近似するために、低次モデリング(CNF-ROM)フレームワークのための条件付きニューラルネットワークを提案する。
このアプローチは、潜伏状態からPDEソリューションを再構成するデコーダと、時間とともに潜伏ダイナミクスをモデル化するためのパラメトリックニューラルネットワークODEを組み合わせる。
論文 参考訳(メタデータ) (2024-12-06T18:04:33Z) - P-SpikeSSM: Harnessing Probabilistic Spiking State Space Models for Long-Range Dependency Tasks [1.9775291915550175]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる計算効率が高く生物学的に妥当な代替品として提案されている。
長距離依存タスクのためのスケーラブルな確率的スパイク学習フレームワークを開発した。
我々のモデルは、様々な長距離依存タスクにまたがるSNNモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T04:23:11Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - A memory-efficient neural ODE framework based on high-level adjoint
differentiation [4.063868707697316]
我々は、高レベル離散アルゴリズムの微分に基づく新しいニューラルODEフレームワーク、PNODEを提案する。
PNODEは他の逆精度の手法と比較してメモリ効率が最も高いことを示す。
論文 参考訳(メタデータ) (2022-06-02T20:46:26Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。