論文の概要: Interpretable Neural Approximation of Stochastic Reaction Dynamics with Guaranteed Reliability
- arxiv url: http://arxiv.org/abs/2512.06294v1
- Date: Sat, 06 Dec 2025 04:45:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.289144
- Title: Interpretable Neural Approximation of Stochastic Reaction Dynamics with Guaranteed Reliability
- Title(参考訳): 信頼度を保証した確率的反応ダイナミクスの解釈可能な神経近似
- Authors: Quentin Badolle, Arthur Theuer, Zhou Fang, Ankit Gupta, Mustafa Khammash,
- Abstract要約: 我々は,解釈可能性,信頼性保証,実質的な計算ゲインを実現するニューラルネットワークフレームワークであるDeepSKAを紹介する。
DeepSKAは、状態、時間、出力関数にまたがって一般化する数学的に透明な表現を生成し、この構造を少数のシミュレーションと統合し、古典的モンテカルロよりも非バイアスで、確率的に収束し、劇的に低いマグニチュード推定を生成する。
- 参考スコア(独自算出の注目度): 4.736119820998459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stochastic Reaction Networks (SRNs) are a fundamental modeling framework for systems ranging from chemical kinetics and epidemiology to ecological and synthetic biological processes. A central computational challenge is the estimation of expected outputs across initial conditions and times, a task that is rarely solvable analytically and becomes computationally prohibitive with current methods such as Finite State Projection or the Stochastic Simulation Algorithm. Existing deep learning approaches offer empirical scalability, but provide neither interpretability nor reliability guarantees, limiting their use in scientific analysis and in applications where model outputs inform real-world decisions. Here we introduce DeepSKA, a neural framework that jointly achieves interpretability, guaranteed reliability, and substantial computational gains. DeepSKA yields mathematically transparent representations that generalise across states, times, and output functions, and it integrates this structure with a small number of stochastic simulations to produce unbiased, provably convergent, and dramatically lower-variance estimates than classical Monte Carlo. We demonstrate these capabilities across nine SRNs, including nonlinear and non-mass-action models with up to ten species, where DeepSKA delivers accurate predictions and orders-of-magnitude efficiency improvements. This interpretable and reliable neural framework offers a principled foundation for developing analogous methods for other Markovian systems, including stochastic differential equations.
- Abstract(参考訳): 確率的反応ネットワーク(英: Stochastic Reaction Networks、SRN)は、化学動力学や疫学から生態学的および合成生物学的プロセスまで、システムの基本モデリングフレームワークである。
中心的な計算課題は、初期条件と時間にわたって期待される出力を推定することであり、これは解析的にはほとんど解決できず、有限状態射影や確率シミュレーションアルゴリズムのような現在の手法で計算的に禁止される。
既存のディープラーニングアプローチは経験的なスケーラビリティを提供するが、解釈可能性や信頼性の保証は提供せず、科学的分析や、モデル出力が現実世界の意思決定に影響を及ぼすアプリケーションでの使用を制限する。
ここでは、解釈可能性、信頼性の保証、実質的な計算ゲインを共同で達成するニューラルネットワークフレームワークであるDeepSKAを紹介する。
DeepSKAは、状態、時間、出力関数にまたがって一般化する数学的に透明な表現を生成し、この構造を少数の確率的シミュレーションと統合し、古典的モンテカルロよりも不偏で、確率的に収束し、劇的に低い分散の推定値を生成する。
最大10種までの非線形および非質量反応モデルを含む9つのSRNでこれらの能力を実証し、DeepSKAは正確な予測とマグニチュード効率の改善を行う。
この解釈可能で信頼性の高いニューラルネットワークフレームワークは、確率微分方程式を含む他のマルコフ系に対して類似した方法を開発するための原理的基礎を提供する。
関連論文リスト
- A joint optimization approach to identifying sparse dynamics using least squares kernel collocation [70.13783231186183]
本研究では,通常の微分方程式(ODE)の学習システムを,状態の不足,部分的,ノイズの多い観測から学習するためのオール・アット・オンス・モデリング・フレームワークを開発する。
提案手法は,関数ライブラリ上でのODEのスパースリカバリ戦略とカーネルヒルベルト空間(RKHS)理論による状態推定とODEの離散化の手法を組み合わせたものである。
論文 参考訳(メタデータ) (2025-11-23T18:04:15Z) - A Simple Approximate Bayesian Inference Neural Surrogate for Stochastic Petri Net Models [0.0]
後部分布フレームワークのニューラルネットワークに基づく近似を導入する。
我々のモデルは、Gilespie-simulated SPN realizations上で訓練された1D Convolutional Residual Networkを使用する。
20%の欠落事象を持つ合成SPNでは, RMSE = 0.108で速度関数係数を回復し, 従来のベイズ手法よりもかなり高速に動作する。
論文 参考訳(メタデータ) (2025-07-14T18:31:19Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Probabilistic neural operators for functional uncertainty quantification [14.08907045605149]
本稿では,ニューラル演算子の出力関数空間上の確率分布を学習するフレームワークである確率論的ニューラル演算子(PNO)を紹介する。
PNOは、厳密な適切なスコアリングルールに基づく生成モデリングにより、ニューラル演算子を拡張し、不確実性情報をトレーニングプロセスに直接統合する。
論文 参考訳(メタデータ) (2025-02-18T14:42:11Z) - Chaos into Order: Neural Framework for Expected Value Estimation of Stochastic Partial Differential Equations [0.9944647907864256]
線形偏微分方程式(SPDE)の期待値を近似する物理インフォームドニューラルネットワークを提案する。
トレーニング中の時空座標とノイズ実現の両方のランダムサンプリングを活用することで、LECは標準フィードフォワードニューラルネットワークをトレーニングし、複数のサンプル間での残留損失を最小限に抑える。
このモデルでは, より低次元における解の期待値の正確な近似を常に学習し, 空間次元の増加に伴うロバスト性低下を予測可能であることを示す。
論文 参考訳(メタデータ) (2025-02-05T23:27:28Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Deep Learning Aided Laplace Based Bayesian Inference for Epidemiological
Systems [2.596903831934905]
本稿では,Laplace をベースとしたベイズ推定と ANN アーキテクチャを併用して ODE 軌道の近似を求めるハイブリッド手法を提案する。
本手法の有効性を,非分析的ソリューションを用いた疫学システム,Susceptible-Infectious-Demoved (SIR) モデルを用いて実証した。
論文 参考訳(メタデータ) (2022-10-17T09:02:41Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。