論文の概要: Adaptive recurrent flow map operator learning for reaction diffusion dynamics
- arxiv url: http://arxiv.org/abs/2602.09487v1
- Date: Tue, 10 Feb 2026 07:33:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.42894
- Title: Adaptive recurrent flow map operator learning for reaction diffusion dynamics
- Title(参考訳): 反応拡散ダイナミクスのための適応的繰り返しフローマップ演算子学習
- Authors: Huseyin Tunc,
- Abstract要約: 我々は,適応的反復学習(DDOL-ART)を軽量な検証マイルストーンを持つ頑健な再帰戦略を用いて行う演算子学習器を開発した。
DDOL-ARTは長いロールアウトで安定なワンステップ演算子を学び、ゼロショットを強いシフトに一般化する。
物理ベースの数値損失演算子学習器(NLOL)よりも、マッチした設定で数倍高速である。
- 参考スコア(独自算出の注目度): 0.9137554315375919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reaction-diffusion (RD) equations underpin pattern formation across chemistry, biology, and physics, yet learning stable operators that forecast their long-term dynamics from data remains challenging. Neural-operator surrogates provide resolution-robust prediction, but autoregressive rollouts can drift due to the accumulation of error, and out-of-distribution (OOD) initial conditions often degrade accuracy. Physics-based numerical residual objectives can regularize operator learning, although they introduce additional assumptions, sensitivity to discretization and loss design, and higher training cost. Here we develop a purely data-driven operator learner with adaptive recurrent training (DDOL-ART) using a robust recurrent strategy with lightweight validation milestones that early-exit unproductive rollout segments and redirect optimization. Trained only on a single in-distribution toroidal Gaussian family over short horizons, DDOL-ART learns one-step operators that remain stable under long rollouts and generalize zero-shot to strong morphology shifts across FitzHugh-Nagumo (FN), Gray-Scott (GS), and Lambda-Omega (LO) systems. Across these benchmarks, DDOL-ART delivers a strong accuracy and cost trade-off. It is several-fold faster than a physics-based numerical-loss operator learner (NLOL) under matched settings, and it remains competitive on both in-distribution stability and OOD robustness. Training-dynamics diagnostics show that adaptivity strengthens the correlation between validation error and OOD test error performance, acting as a feedback controller that limits optimization drift. Our results indicate that feedback-controlled recurrent training of DDOL-ART generates robust flow-map surrogates without PDE residuals, while simultaneously maintaining competitiveness with NLOL at significantly reduced training costs.
- Abstract(参考訳): 反応拡散(RD)方程式は、化学、生物学、物理学にまたがるパターン形成を支えるが、データから長期的なダイナミクスを予測する安定作用素を学習することは依然として困難である。
ニューラル・オペレーター・サロゲートは分解能ローバースト予測を提供するが、自動回帰ロールアウトはエラーの蓄積によってドリフトし、アウト・オブ・ディストリビューション(OOD)初期条件はしばしば精度を低下させる。
物理学に基づく数値的残留目的は、演算子学習を正規化することができるが、さらなる仮定、離散化や損失設計に対する感度、より高いトレーニングコストが導入された。
そこで我々は,非生産的ロールアウトセグメントを早期に出力し,最適化をリダイレクトする軽量な検証マイルストーンを持つ頑健な再帰戦略を用いて,適応的反復訓練(DDOL-ART)を備えた純粋データ駆動型演算子学習機を開発した。
DDOL-ARTは、短い地平線上で1つの非分布トロイダルガウス族でのみ訓練され、長いロールアウトの下で安定なワンステップ作用素を学び、FitzHugh-Nagumo (FN)、Gray-Scott (GS)、Lambda-Omega (LO) システムにわたるゼロショットから強いモルフォロジーへのシフトを一般化する。
これらのベンチマーク全体で、DDOL-ARTは高い精度とコストトレードオフを提供する。
物理ベースの数値損失演算子学習器(NLOL)よりも整合条件下では数倍高速であり,分散安定性とOODロバスト性の両方に競争力がある。
トレーニング力学診断では、適応性は検証エラーとOODテストエラー性能の相関性を強化し、最適化ドリフトを制限するフィードバックコントローラとして機能することを示している。
DDOL-ARTのリカレントトレーニングでは,PDE残量のない堅牢なフローマップサロゲートが生成され,同時にNLOLとの競争性が維持され,トレーニングコストの大幅な削減が図られた。
関連論文リスト
- Error Amplification Limits ANN-to-SNN Conversion in Continuous Control [64.99656514469972]
スパイキングニューラルネットワーク(SNN)は、すでに訓練済みのニューラルネットワーク(ANN)を変換することで、競争性能を達成することができる。
既存の変換法は、適切なベースラインがほとんど存在しないような連続的な制御では性能が良くない。
本研究では, 時間的相関誤差を抑制するために, 残留膜電位を決定段階にわたって超過する軽量なトレーニング自由機構であるCRPIを提案する。
論文 参考訳(メタデータ) (2026-01-29T14:28:00Z) - Identifying and Transferring Reasoning-Critical Neurons: Improving LLM Inference Reliability via Activation Steering [50.63386303357225]
本稿では,ニューロンの活性化に選択的に介入することで推論信頼性を向上させる軽量なテストタイムフレームワークであるAdaRASを提案する。
AdaRASは、極性を意識した平均差基準を介してReasoning-Critical Neurons(RCN)を特定し、推論中にアクティベーションを適応的に制御する。
10の数学およびコーディングベンチマークの実験では、AIME-24とAIME-25の13%以上のゲインを含む一貫した改善が示されている。
論文 参考訳(メタデータ) (2026-01-27T17:53:01Z) - Physics-informed Neural Operator Learning for Nonlinear Grad-Shafranov Equation [18.564353542797946]
磁気閉じ込め核融合では、Grad-Shafranov方程式(GSE)の迅速かつ正確な解はリアルタイムプラズマ制御と解析に不可欠である。
従来の数値解法は精度が高く、計算は禁じられているが、データ駆動サロゲートは素早く推論するが、物理法則を強制せず、トレーニング分布をはるかに越えて一般化することができない。
本稿では, GSE 解演算子を直接学習する物理インフォームド・ニューラル演算子 (PINO) について述べる。
論文 参考訳(メタデータ) (2025-11-24T13:46:38Z) - Human-in-the-loop Online Rejection Sampling for Robotic Manipulation [55.99788088622936]
Hi-ORSは、オンライン微調整中に負の報酬を得たサンプルをフィルタリングすることで、値推定を安定化する。
Hi-ORSは、わずか1.5時間でコンタクトリッチな操作をマスターするためのpiベースのポリシーを微調整する。
論文 参考訳(メタデータ) (2025-10-30T11:53:08Z) - Towards Universal Solvers: Using PGD Attack in Active Learning to Increase Generalizability of Neural Operators as Knowledge Distillation from Numerical PDE Solvers [3.780792537808271]
PDEソルバは細かな時空間離散化と局所線形化を必要とするため、メモリコストが高く、実行時間が遅い。
本稿では, 微分可能な数値解法がコンパクトなニューラル演算子を監督する対向型教師学生蒸留フレームワークを提案する。
Burgers と Navier-Stokes のシステム実験により、対向蒸留は低パラメータコストと高速なニューラル演算子の推論を保ちながらOODを大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-10-21T18:13:05Z) - ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - Physics-Informed Multimodal Bearing Fault Classification under Variable Operating Conditions using Transfer Learning [0.46085106405479537]
本研究では,物理インフォームド・マルチモーダル畳み込みニューラルネットワーク (CNN) とレイトフュージョンアーキテクチャを提案する。
このモデルには、物理的に不可解な予測をペナルティ化する、新しい物理インフォームド・ロス関数が組み込まれている。
パーダーボーン大学のデータセットの実験では、提案された物理学的インフォームドアプローチが、非物理学的インフォームドベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-08-11T01:32:09Z) - History-Aware Neural Operator: Robust Data-Driven Constitutive Modeling of Path-Dependent Materials [8.579506050944875]
本研究では、ニューラルネットワークを用いた非弾性材料のデータ駆動モデリングのためのエンドツーエンド学習フレームワークを提案する。
近年のストレス・ストレス・ヒストリーの短い部分から経路依存的な物質応答を予測する自己回帰モデルであるヒストリー・アウェア・ニューラル・オペレータ(HANO)を開発した。
我々は, 脆性固体の弾塑性と進行異方性損傷の2つのベンチマーク問題に対してHANOを評価した。
論文 参考訳(メタデータ) (2025-06-12T05:19:17Z) - Recurrent Neural Operators: Stable Long-Term PDE Prediction [0.0]
本稿では、リカレント・トレーニングをニューラル・オペレーター・アーキテクチャに統合するためのリカレント・ニューラル・オペレーター(RNO)を提案する。
RNOはオペレータを時間ウィンドウ上で自身の予測に適用し、トレーニング中の推論時間ダイナミクスを効果的にシミュレートする。
繰り返し学習は, 教師が線形成長を強制する場合の, 最悪の指数的誤りの増大を低減できることを示す。
論文 参考訳(メタデータ) (2025-05-27T05:04:35Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。