論文の概要: Physics-Informed Spiking Neural Networks via Conservative Flux Quantization
- arxiv url: http://arxiv.org/abs/2511.21784v1
- Date: Wed, 26 Nov 2025 13:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.23656
- Title: Physics-Informed Spiking Neural Networks via Conservative Flux Quantization
- Title(参考訳): 保守的フラックス量子化による物理インフォームドスパイキングニューラルネットワーク
- Authors: Chi Zhang, Lin Wang,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、データ駆動学習と物理に基づく制約を組み合わせることで、モデルの予測が基礎となる物理原理と一致することを保証する。
PINNはエネルギー集約的であり、物理的保存法を厳格に強制するのに苦労している。
本稿では,新しい物理インフォームドスパイキングニューラルネットワーク(PISNN)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.328961717118723
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time, physically-consistent predictions on low-power edge devices is critical for the next generation embodied AI systems, yet it remains a major challenge. Physics-Informed Neural Networks (PINNs) combine data-driven learning with physics-based constraints to ensure the model's predictions are with underlying physical principles.However, PINNs are energy-intensive and struggle to strictly enforce physical conservation laws. Brain-inspired spiking neural networks (SNNs) have emerged as a promising solution for edge computing and real-time processing. However, naively converting PINNs to SNNs degrades physical fidelity and fails to address long-term generalization issues. To this end, this paper introduce a novel Physics-Informed Spiking Neural Network (PISNN) framework. Importantly, to ensure strict physical conservation, we design the Conservative Leaky Integrate-and-Fire (C-LIF) neuron, whose dynamics structurally guarantee local mass preservation. To achieve robust temporal generalization, we introduce a novel Conservative Flux Quantization (CFQ) strategy, which redefines neural spikes as discrete packets of physical flux. Our CFQ learns a time-invariant physical evolution operator, enabling the PISNN to become a general-purpose solver -- conservative-by-construction. Extensive experiments show that our PISNN excels on diverse benchmarks. For both the canonical 1D heat equation and the more challenging 2D Laplace's Equation, it accurately simulates the system dynamics while maintaining perfect mass conservation by design -- a feat that is challenging for conventional PINNs. This work establishes a robust framework for fusing the rigor of scientific computing with the efficiency of neuromorphic engineering, paving the way for complex, long-term, and energy-efficient physics predictions for intelligent systems.
- Abstract(参考訳): 低消費電力エッジデバイス上でのリアルタイムで物理的に一貫性のある予測は、次世代の組み込みAIシステムには不可欠だが、それでも大きな課題だ。
物理インフォームドニューラルネットワーク(PINN)は、データ駆動学習と物理に基づく制約を組み合わせることで、モデルの予測が基礎となる物理原理と一致することを保証するが、PINNはエネルギー集約的で、物理的保存法を厳格に強制するのは難しい。
エッジコンピューティングとリアルタイム処理のための有望なソリューションとして、ブレインインスパイアされたスパイクニューラルネットワーク(SNN)が登場した。
しかし、PINNをSNNに変換することは物理的忠実度を低下させ、長期的な一般化の問題に対処することができない。
そこで本研究では,新しいPhysical-Informed Spiking Neural Network (PISNN) フレームワークを提案する。
重要なことは、厳格な物理的保存を確保するために、局所的な質量保存を動的に保証する保守的Leaky Integrate-and-Fire(C-LIF)ニューロンを設計することである。
安定な時間的一般化を実現するために,ニューラルネットワークを物理フラックスの離散パケットとして再定義する新しい保守的フラックス量子化(CFQ)戦略を導入する。
我々のCFQは、時間不変な物理進化演算子を学習し、PSSNNが汎用的な問題解決者(保守的・保守的)になることを可能にする。
大規模な実験により、当社のPISNNは様々なベンチマークに優れています。
標準的な1D熱方程式とより挑戦的な2Dラプラス方程式の両方に対して、システムダイナミクスを正確にシミュレートし、設計による完全な質量保存を維持します。
この研究は、科学計算の厳密さとニューロモルフィック工学の効率を融合させ、知的システムのための複雑で長期的でエネルギー効率の高い物理予測を行うための堅牢な枠組みを確立する。
関連論文リスト
- LNN-PINN: A Unified Physics-Only Training Framework with Liquid Residual Blocks [1.6249267147413524]
LNN-PINNは、液体残留ゲーティングアーキテクチャを組み込んだ物理インフォームドニューラルネットワークフレームワークである。
4つのベンチマーク問題の中で、LNN-PINNはRMSEとMAEを同一の訓練条件下で一貫して削減した。
論文 参考訳(メタデータ) (2025-08-12T13:35:46Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Evolutionary Optimization of Physics-Informed Neural Networks: Advancing Generalizability by the Baldwin Effect [22.57730294475146]
物理インフォームドニューラルネットワーク(PINN)は、科学機械学習の最前線にある。
本稿では,ボールドウィン進化の枠組みを通じて,PINNの一般化可能性を高めるための先駆的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-06T02:31:12Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Physics-guided generative adversarial network to learn physical models [0.0]
このノートには、物理的に妥当なソリューションを学ぶためのディープニューラルネットワーク(DNN)のガイド付きトレーニングの概念が記述されている。
提案モデルは,GANアーキテクチャを用いた物理誘導型生成逆ネットワーク(PG-GAN)である。
論文 参考訳(メタデータ) (2023-04-22T22:43:50Z) - Hybrid quantum physics-informed neural networks for simulating computational fluid dynamics in complex shapes [37.69303106863453]
本稿では3次元Y字ミキサー内の層流をシミュレートするハイブリッド量子物理学インフォームドニューラルネットワークを提案する。
我々のアプローチは、量子モデルの表現力と物理インフォームドニューラルネットワークの柔軟性を組み合わせることで、純粋に古典的なニューラルネットワークに比べて21%高い精度を実現している。
論文 参考訳(メタデータ) (2023-04-21T20:49:29Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Multi-resolution partial differential equations preserved learning
framework for spatiotemporal dynamics [11.981731023317945]
物理インフォームドディープラーニング(PiDL)は、物理原理をモデルに組み込むことによって、これらの課題に対処する。
我々は、ニューラルネットワークアーキテクチャに離散化された支配方程式を焼いて、物理の事前知識を活用することを提案する。
離散化されたPDEを畳み込み残差ネットワークを介して多分解能設定に埋め込むことにより、一般化可能性と長期予測を大幅に改善する。
論文 参考訳(メタデータ) (2022-05-09T01:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。