論文の概要: Inverse Neural Operator for ODE Parameter Optimization
- arxiv url: http://arxiv.org/abs/2603.11854v1
- Date: Thu, 12 Mar 2026 12:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.065767
- Title: Inverse Neural Operator for ODE Parameter Optimization
- Title(参考訳): ODEパラメータ最適化のための逆ニューラル演算子
- Authors: Zhi-Song Liu, Wenqing Peng, Helmi Toropainen, Ammar Kheder, Andreas Rupp, Holger Froning, Xiaojie Lin, Michael Boy,
- Abstract要約: Inverse Neural Operator (INO) は、疎部分的な観測から隠されたODEパラメータを復元するフレームワークである。
INOは0.23秒の推論時間しか必要とせず、パラメータ回復の精度で勾配ベースと償却ベースラインを上回ります。
- 参考スコア(独自算出の注目度): 6.148294495010685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the Inverse Neural Operator (INO), a two-stage framework for recovering hidden ODE parameters from sparse, partial observations. In Stage 1, a Conditional Fourier Neural Operator (C-FNO) with cross-attention learns a differentiable surrogate that reconstructs full ODE trajectories from arbitrary sparse inputs, suppressing high-frequency artifacts via spectral regularization. In Stage 2, an Amortized Drifting Model (ADM) learns a kernel-weighted velocity field in parameter space, transporting random parameter initializations toward the ground truth without backpropagating through the surrogate, avoiding the Jacobian instabilities that afflict gradient-based inversion in stiff regimes. Experiments on a real-world stiff atmospheric chemistry benchmark (POLLU, 25 parameters) and a synthetic Gene Regulatory Network (GRN, 40 parameters) show that INO outperforms gradient-based and amortized baselines in parameter recovery accuracy while requiring only 0.23s inference time, a 487x speedup over iterative gradient descent.
- Abstract(参考訳): Inverse Neural Operator (INO) は、疎部分観測から隠されたODEパラメータを復元する2段階のフレームワークである。
ステージ1では、クロスアテンションを持つ条件付きフーリエニューラル演算子(C-FNO)が、任意のスパース入力から完全なODE軌道を再構成し、スペクトル正則化により高周波アーティファクトを抑制する、微分可能なサロゲートを学習する。
ステージ2では、ADM (Amortized Drifting Model) がパラメータ空間のカーネル重み付き速度場を学習し、乱パラメータの初期化をサロゲートをバックプロパゲートすることなく基底真理へ移動し、硬い状態における勾配に基づく逆転を伴わないヤコビアン不安定性を回避する。
実世界の強硬性大気化学ベンチマーク(POLLU, 25パラメータ)と合成遺伝子制御ネットワーク(GRN, 40パラメータ)の実験では、INOはパラメータ回復の精度において勾配ベースおよび償却ベースラインより優れており、推算時間はわずか0.23秒であり、反復勾配降下よりも487倍のスピードアップである。
関連論文リスト
- Function-Space Decoupled Diffusion for Forward and Inverse Modeling in Carbon Capture and Storage [65.51149575007149]
本稿では,Fun-DDPSについて述べる。Fun-DDPSは,関数空間拡散モデルと微分可能なニューラル演算子サロゲートを結合した生成フレームワークである。
Fun-DDPSは、ジョイントステートベースラインで観察される高周波アーティファクトから、物理的に一貫した実現をもたらす。
論文 参考訳(メタデータ) (2026-02-12T18:58:12Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - NAG-GS: Semi-Implicit, Accelerated and Robust Stochastic Optimizer [45.47667026025716]
2つの重要な要素に依存した、新しく、堅牢で、加速された反復を提案する。
NAG-GSと呼ばれる手法の収束と安定性は、まず広範に研究されている。
我々は、NAG-arityが、重量減衰を伴う運動量SGDや機械学習モデルのトレーニングのためのAdamWといった最先端の手法と競合していることを示す。
論文 参考訳(メタデータ) (2022-09-29T16:54:53Z) - Physics informed machine learning with Smoothed Particle Hydrodynamics:
Hierarchy of reduced Lagrangian models of turbulence [0.6542219246821327]
この原稿は乱流に対するパラメータ化還元ラグランジアンモデルの階層を構築している。
Smoothed Particle Hydrodynamics (SPH) を通した物理的構造を、普遍関数近似器としてニューラルネットワーク(NN)に依存することによる影響について検討する。
論文 参考訳(メタデータ) (2021-10-25T22:57:40Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Sparse Representations of Positive Functions via First and Second-Order
Pseudo-Mirror Descent [15.340540198612823]
推定器の範囲が非負である必要がある場合、予測されるリスク問題を考察する。
Emphpseudo-gradientsを用いた近似ミラーの1階および2階の変種を開発した。
実験は、実際に不均一なプロセス強度推定に好適な性能を示す。
論文 参考訳(メタデータ) (2020-11-13T21:54:28Z) - Hessian-Free High-Resolution Nesterov Acceleration for Sampling [55.498092486970364]
最適化のためのNesterovのAccelerated Gradient(NAG)は、有限のステップサイズを使用する場合の連続時間制限(ノイズなしの運動的ランゲヴィン)よりも優れたパフォーマンスを持つ。
本研究は, この現象のサンプリング法について検討し, 離散化により加速勾配に基づくMCMC法が得られる拡散過程を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。