論文の概要: From LIF to QIF: Toward Differentiable Spiking Neurons for Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2511.06614v1
- Date: Mon, 10 Nov 2025 01:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.025351
- Title: From LIF to QIF: Toward Differentiable Spiking Neurons for Scientific Machine Learning
- Title(参考訳): LIFからQIFへ:科学機械学習のための識別可能なスパイクニューロンを目指して
- Authors: Ruyin Wan, George Em Karniadakis, Panos Stinis,
- Abstract要約: 我々は従来のLeaky Integrate-and-Fire(LIF)モデルの代替として、準積分体(QIF)ニューロンを導入・評価する。
QIFニューロンは滑らかで微分可能なスパイキングダイナミクスを示し、勾配に基づくトレーニングと安定した最適化を可能にしている。
これらの結果は、QIFニューロンをスパイキングと連続的な価値のある深層学習の間の計算ブリッジとして位置づける。
- 参考スコア(独自算出の注目度): 4.745210824486511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) offer biologically inspired computation but remain underexplored for continuous regression tasks in scientific machine learning. In this work, we introduce and systematically evaluate Quadratic Integrate-and-Fire (QIF) neurons as an alternative to the conventional Leaky Integrate-and-Fire (LIF) model in both directly trained SNNs and ANN-to-SNN conversion frameworks. The QIF neuron exhibits smooth and differentiable spiking dynamics, enabling gradient-based training and stable optimization within architectures such as multilayer perceptrons (MLPs), Deep Operator Networks (DeepONets), and Physics-Informed Neural Networks (PINNs). Across benchmarks on function approximation, operator learning, and partial differential equation (PDE) solving, QIF-based networks yield smoother, more accurate, and more stable predictions than their LIF counterparts, which suffer from discontinuous time-step responses and jagged activation surfaces. These results position the QIF neuron as a computational bridge between spiking and continuous-valued deep learning, advancing the integration of neuroscience-inspired dynamics into physics-informed and operator-learning frameworks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は生物学的にインスパイアされた計算を提供するが、科学的機械学習における継続的回帰タスクには未熟である。
本研究では,従来のLeaky Integrate-and-Fire(LIF)モデルの代替として,直接訓練されたSNNとANN-to-SNN変換フレームワークに準積分体(QIF)ニューロンを導入し,体系的に評価する。
QIFニューロンはスムーズで微分可能なスパイキングダイナミクスを示し、多層パーセプトロン(MLP)、ディープオペレータネットワーク(DeepONets)、物理インフォームドニューラルネットワーク(PINN)などのアーキテクチャ内で勾配ベースのトレーニングと安定した最適化を可能にする。
関数近似、演算子学習、偏微分方程式(PDE)解のベンチマークにおいて、QIFベースのネットワークは、不連続な時間ステップ応答とジャグリング活性化面に苦しむLIFよりも滑らかで、より正確で、より安定した予測をもたらす。
これらの結果は、QIFニューロンをスパイキングと連続的に評価された深層学習の間の計算ブリッジとして位置づけ、神経科学にインスパイアされたダイナミクスを物理インフォームドおよび演算子学習フレームワークに統合する。
関連論文リスト
- Discretized Quadratic Integrate-and-Fire Neuron Model for Deep Spiking Neural Networks [0.08749675983608168]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークに代わるエネルギー効率の良い代替手段として登場した。
本稿では,高性能深部スパイクニューラルネットに適した準積分ファイア(QIF)ニューロンモデルの最初の離散化を提案する。
論文 参考訳(メタデータ) (2025-10-05T02:30:10Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - CLIF: Complementary Leaky Integrate-and-Fire Neuron for Spiking Neural Networks [5.587069105667678]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
差別化できないスパイク機構のため、SNNを訓練することは依然として困難である。
本稿では、Leaky Integrate-and-Fire Neuron-based SNNとComplementary Leaky Integrate-and-Fire Neuronを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:51:57Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。