論文の概要: Towards Infinitely Long Neural Simulations: Self-Refining Neural Surrogate Models for Dynamical Systems
- arxiv url: http://arxiv.org/abs/2603.17750v1
- Date: Wed, 18 Mar 2026 14:14:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.743142
- Title: Towards Infinitely Long Neural Simulations: Self-Refining Neural Surrogate Models for Dynamical Systems
- Title(参考訳): Infinitely Long Neural Simulations:Self-Refining Neural Surrogate Models for Dynamical Systems (特集:ニューラルシミュレーション)
- Authors: Qi Liu, Laure Zanna, Joan Bruna,
- Abstract要約: 自己精製型ニューラルサロゲートモデル(SNS)は、スタンドアロンモデルまたは既存のニューラルサロゲートの補完モデルとして実装することができる。
- 参考スコア(独自算出の注目度): 30.037248637148693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in autoregressive neural surrogate models have enabled orders-of-magnitude speedups in simulating dynamical systems. However, autoregressive models are generally prone to distribution drift: compounding errors in autoregressive rollouts that severely degrade generation quality over long time horizons. Existing work attempts to address this issue by implicitly leveraging the inherent trade-off between short-time accuracy and long-time consistency through hyperparameter tuning. In this work, we introduce a unifying mathematical framework that makes this tradeoff explicit, formalizing and generalizing hyperparameter-based strategies in existing approaches. Within this framework, we propose a robust, hyperparameter-free model implemented as a conditional diffusion model that balances short-time fidelity with long-time consistency by construction. Our model, Self-refining Neural Surrogate model (SNS), can be implemented as a standalone model that refines its own autoregressive outputs or as a complementary model to existing neural surrogates to ensure long-time consistency. We also demonstrate the numerical feasibility of SNS through high-fidelity simulations of complex dynamical systems over arbitrarily long time horizons.
- Abstract(参考訳): 自己回帰型ニューラルサロゲートモデルの最近の進歩は、シミュレーション力学系におけるオーダー・オブ・マグニチュード・スピードアップを可能にしている。
しかし、自己回帰モデルは一般に分布のドリフトを起こしやすい: 長時間の地平線上で生成品質を著しく低下させる自己回帰ロールアウトにおける複合的なエラー。
既存の作業は、ハイパーパラメータチューニングを通じて、短時間の精度と長時間の一貫性の間の本質的にのトレードオフを暗黙的に活用することで、この問題に対処しようとする。
本研究では,このトレードオフを明確化し,形式化し,既存のアプローチにおけるハイパーパラメータベースの戦略を一般化する,統一的な数学的枠組みを導入する。
本研究では,条件拡散モデルとして実装された高パラメータフリーモデルを提案する。
我々のモデルである自己精製ニューラルサロゲートモデル(SNS)は、独自の自己回帰出力を洗練するスタンドアロンモデルとして、あるいは既存のニューラルサロゲートを補完モデルとして実装することで、長時間の整合性を確保することができる。
また,任意の長時間水平線上での複雑な力学系の高忠実度シミュレーションにより,SNSの数値実現可能性を示す。
関連論文リスト
- Scalable Spatio-Temporal SE(3) Diffusion for Long-Horizon Protein Dynamics [51.85385061275941]
分子動力学(MD)シミュレーションは、タンパク質動力学研究のゴールドスタンダードのままである。
近年の生成モデルではシミュレーションの加速が期待できるが、長軸生成に苦慮している。
物理的に可塑性なタンパク質軌道をマイクロスケールの時間スケールで生成する拡張拡散モデルSTAR-MDを提案する。
論文 参考訳(メタデータ) (2026-02-02T14:13:28Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Hierarchical Implicit Neural Emulators [20.09615751270837]
本稿では,長期予測精度を高めるマルチスケール暗黙的ニューラルエミュレータを提案する。
提案手法では, 圧縮速度の向上に先立って, 次の段階の圧縮速度の向上を推算する。
乱流流体力学の実験により,本手法は短期精度が高く,長期安定予測が得られた。
論文 参考訳(メタデータ) (2025-06-05T00:28:26Z) - Learning to Dissipate Energy in Oscillatory State-Space Models [51.98491034847041]
状態空間モデル (SSM) はシーケンス学習のためのネットワークのクラスである。
我々は,D-LinOSSがLinOSSの手法を長距離学習タスクで一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-05-17T23:15:17Z) - Generative emulation of chaotic dynamics with coherent prior [0.129182926254119]
拡散モデルを用いて乱流の原理を統一した動的エミュレーションのための効率的な生成フレームワークを提案する。
具体的には,デノナイジング過程の指導として,基礎となる力学の大規模コヒーレント構造を推定する。
結合性に優れた長距離予測技術は、部分的に観察されたガイダンスが存在する場合でも、物理的に一貫性のあるシミュレーションを効率的に生成することができる。
論文 参考訳(メタデータ) (2025-04-19T11:14:40Z) - Oscillatory State-Space Models [61.923849241099184]
長いシーケンスを効率的に学習するための線形状態空間モデル(LinOSS)を提案する。
高速な連想並列スキャンを用いて時間とともに統合された安定な離散化により、提案した状態空間モデルが得られる。
我々はLinOSSが普遍であること、すなわち時間変化関数間の連続および因果作用素写像を近似できることを示す。
論文 参考訳(メタデータ) (2024-10-04T22:00:13Z) - Evolve Smoothly, Fit Consistently: Learning Smooth Latent Dynamics For
Advection-Dominated Systems [14.553972457854517]
複雑な物理系のサロゲートモデルを学ぶための,データ駆動・時空連続フレームワークを提案する。
ネットワークの表現力と特別に設計された整合性誘導正規化を利用して,低次元かつ滑らかな潜在軌道を得る。
論文 参考訳(メタデータ) (2023-01-25T03:06:03Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Action-Conditional Recurrent Kalman Networks For Forward and Inverse
Dynamics Learning [17.80270555749689]
ロボットのモデルベース制御において、正確な前方および逆ダイナミクスモデルの推定が重要な要素である。
本稿では,フォワードモデル学習のためのアーキテクチャと,逆モデル学習のためのアーキテクチャを提案する。
どちらのアーキテクチャも、予測性能の点で、既存のモデル学習フレームワークと分析モデルを大きく上回っている。
論文 参考訳(メタデータ) (2020-10-20T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。