論文の概要: Determinism in the Undetermined: Deterministic Output in Charge-Conserving Continuous-Time Neuromorphic Systems with Temporal Stochasticity
- arxiv url: http://arxiv.org/abs/2603.15987v1
- Date: Mon, 16 Mar 2026 23:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.029438
- Title: Determinism in the Undetermined: Deterministic Output in Charge-Conserving Continuous-Time Neuromorphic Systems with Temporal Stochasticity
- Title(参考訳): 非決定的決定性:時間的確率を考慮した電荷保存型連続時間ニューロモルフィックシステムの決定論的出力
- Authors: Jing Yan, Kang You, Zhezhi He, Yaoyu Zhang,
- Abstract要約: 我々は、ニューラルネットワーク(SNN)をスパイクするための統合された連続時間フレームワークを開発する。
この写像は非巡回ネットワークにおけるスパイクタイミングに厳密に不変であることを示す。
我々はこれらの電荷保存SNNと量子化された人工ニューラルネットワークの正確な表現対応を確立する。
- 参考スコア(独自算出の注目度): 15.346559359976412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving deterministic computation results in asynchronous neuromorphic systems remains a fundamental challenge due to the inherent temporal stochasticity of continuous-time hardware. To address this, we develop a unified continuous-time framework for spiking neural networks (SNNs) that couples the Law of Charge Conservation with minimal neuron-level constraints. This integration ensures that the terminal state depends solely on the aggregate input charge, providing a unique cumulated output invariant to temporal stochasticity. We prove that this mapping is strictly invariant to spike timing in acyclic networks, whereas recurrent connectivity can introduce temporal sensitivity. Furthermore, we establish an exact representational correspondence between these charge-conserving SNNs and quantized artificial neural networks, bridging the gap between static deep learning and event-driven dynamics without approximation errors. These results establish a rigorous theoretical basis for designing continuous-time neuromorphic systems that harness the efficiency of asynchronous processing while maintaining algorithmic determinism.
- Abstract(参考訳): 非同期ニューロモルフィックシステムにおける決定論的計算結果を達成することは、連続時間ハードウェアの時間的確率性に起因する根本的な課題である。
これを解決するために、我々は、電荷保存法を最小のニューロンレベルの制約と組み合わせた、ニューラルネットワーク(SNN)をスパイクするための統合された連続時間フレームワークを開発した。
この積分は、端末状態が集合入力電荷のみに依存することを保証し、時間確率に不変な累積出力を与える。
このマッピングは、非循環ネットワークにおけるスパイクタイミングに厳密に不変であるのに対して、繰り返し接続は時間感度をもたらす可能性があることを証明している。
さらに、これらの電荷保存SNNと量子化された人工ニューラルネットワークの正確な表現対応を確立し、静的深層学習とイベント駆動力学のギャップを近似誤差なく埋める。
これらの結果は、アルゴリズム決定性を維持しながら非同期処理の効率を生かした連続時間ニューロモルフィックシステムを設計するための厳密な理論的基盤を確立する。
関連論文リスト
- Smooth embeddings in contracting recurrent networks driven by regular dynamics: A synthesis for neural representation [45.88028371034407]
最近の実証研究は、訓練された反復モデルにおけるトポロジー保存潜在組織を文書化している。
貯水池計算における最近の理論的結果は、同期写像が埋め込みである条件を確立する。
私たちのコントリビューションは、一般的な同期と、契約型貯水池の埋め込み保証を組み立てる統合フレームワークです。
論文 参考訳(メタデータ) (2026-01-26T23:10:39Z) - Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - Uncertainty Propagation Networks for Neural Ordinary Differential Equations [3.53219160875623]
不確実性伝播ネットワーク(UPN)は、不確実性定量化を連続時間モデリングに自然に組み込む神経微分方程式の新たなファミリーである。
このアーキテクチャは、離散化アーティファクトを使わずに非線形力学を通じて不確実性を効率的に伝播する。
実験結果は、不確実な定量化を伴う連続正規化フロー(CNFs)、よく校正された信頼区間を持つ時系列予測、安定系とカオス系のどちらにおいても頑健な軌道予測である。
論文 参考訳(メタデータ) (2025-08-22T22:24:46Z) - Diverse Neural Sequences in QIF Networks: An Analytically Tractable Framework for Synfire Chains and Hippocampal Replay [0.0]
本研究では,時間的に非対称なヘッビアン則を介し,シーケンスを組み込んだ準連続積分・消火ニューロンの擬似ネットワークを提案する。
以上の結果より, 持続的シンファイア様連鎖や一過性海馬リプレイ様バーストなどの連続的活動のスペクトルを強く再現し, リップル内周波数調節(IFA)を呈することが示唆された。
これらの結果は, TAH接続性を有するQIFネットワークを, 脳内の連続神経活動の出現, 安定性, 多様性を調査するための, 解析的かつ生物学的に妥当なプラットフォームとして確立する。
論文 参考訳(メタデータ) (2025-08-08T07:27:47Z) - Generative System Dynamics in Recurrent Neural Networks [56.958984970518564]
リカレントニューラルネットワーク(RNN)の連続時間ダイナミクスについて検討する。
線形および非線形構成の両方において安定な極限サイクルを実現するためには,スキュー対称性の重み行列が基本であることを示す。
数値シミュレーションは、非線形活性化関数が極限周期を維持するだけでなく、システム統合プロセスの数値安定性を高めることを示す。
論文 参考訳(メタデータ) (2025-04-16T10:39:43Z) - Learning with Spike Synchrony in Spiking Neural Networks [3.8506283985103447]
スパイキングニューラルネットワーク(SNN)は、生物学的神経力学を模倣してエネルギー効率の高い計算を約束する。
本稿では,スパイクタイミングではなく神経発射の度合いに基づいてシナプス重みを調整する訓練手法として,スパイク同期依存塑性(SSDP)を導入する。
論文 参考訳(メタデータ) (2025-04-14T04:01:40Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。