論文の概要: Curriculum-Learned Vanishing Stacked Residual PINNs for Hyperbolic PDE State Reconstruction
- arxiv url: http://arxiv.org/abs/2602.06996v1
- Date: Wed, 28 Jan 2026 10:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.690158
- Title: Curriculum-Learned Vanishing Stacked Residual PINNs for Hyperbolic PDE State Reconstruction
- Title(参考訳): 双曲型PDE状態再構成のためのカリキュラムラーニングベニシング残差PINN
- Authors: Katayoun Eshkofti, Matthieu Barreau,
- Abstract要約: 消滅した余剰PINN (VSR-PINN) は、放物型から双曲型へ滑らかな遷移を可能にするために、余剰改良物の中に消滅する可視性機構を埋め込む。
本稿では,3つのカリキュラム学習手法を,VSR-PINNの最適化,因果進行,適応サンプリングとして統合する。
- 参考スコア(独自算出の注目度): 0.6875312133832079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling distributed dynamical systems governed by hyperbolic partial differential equations (PDEs) remains challenging due to discontinuities and shocks that hinder the convergence of traditional physics-informed neural networks (PINNs). The recently proposed vanishing stacked residual PINN (VSR-PINN) embeds a vanishing-viscosity mechanism within stacked residual refinements to enable a smooth transition from the parabolic to hyperbolic regime. This paper integrates three curriculum-learning methods as primal-dual (PD) optimization, causality progression, and adaptive sampling into the VSR-PINN. The PD strategy balances physics and data losses, the causality scheme unlocks deeper stacks by respecting temporal and gradient evolution, and adaptive sampling targets high residuals. Numerical experiments on traffic reconstruction confirm that enforcing causality systematically reduces the median point-wise MSE and its variability across runs, yielding improvements of nearly one order of magnitude over non-causal training in both the baseline and PD variants.
- Abstract(参考訳): 双曲型偏微分方程式(PDE)によって支配される分散力学系のモデリングは、従来の物理インフォームドニューラルネットワーク(PINN)の収束を妨げる不連続性とショックのために、依然として困難なままである。
最近提案された残差PINN (VSR-PINN) は、放物型から双曲型へのスムーズな遷移を可能にするため、積み重ねされた残差リファインメント内に消滅ビジシティ機構を組み込んでいる。
本稿では,3つのカリキュラム学習手法を,VSR-PINNの最適化,因果進行,適応サンプリングとして統合する。
PD戦略は物理とデータ損失のバランスをとり、因果性スキームは時間と勾配の進化を尊重することでより深いスタックを解き、適応的なサンプリングは高い残留物をターゲットにしている。
交通再建に関する数値実験により、因果関係の強制は中央値のMSEと走行時の変動を体系的に減少させ、ベースラインとPDの両変種における非因果訓練よりも1桁近く改善することを確認した。
関連論文リスト
- The Reasoning-Creativity Trade-off: Toward Creativity-Driven Problem Solving [57.652356955571065]
最先端の大規模言語モデル(LLM)パイプラインは、ブートストラップの推論ループに依存している。
我々は、この設計選択が、推論経路上のモデルの分布の崩壊にどのように敏感であるかを分析する。
本稿では,分散創造推論(DCR)について紹介する。これは,解トレースの確率測定を通じて,トレーニングを勾配流としてキャストする,統一的な変分目的である。
論文 参考訳(メタデータ) (2026-01-02T17:10:31Z) - A Residual Guided strategy with Generative Adversarial Networks in training Physics-Informed Transformer Networks [8.614387766858496]
本稿では,GAN(Generative Adrative Network)を用いた物理入力変換器の残留指導戦略を提案する。
我々のフレームワークはトランスフォーマーを統合し、自己回帰処理によって時間的相関を本質的にキャプチャし、残差認識GANと組み合わせる。
アレン=カーン=ゴルドン方程式とナヴィエ=ストークス方程式の実験は、ベースライン法と比較して3桁の相対的なMSEの減少を示す。
論文 参考訳(メタデータ) (2025-07-15T03:45:42Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - Dual Cone Gradient Descent for Training Physics-Informed Neural Networks [0.0]
物理インフォームド・デュアルニューラルネットワーク(PINN)は偏微分方程式の解法として注目されている。
コーン領域内に落下するのを確実にするために、更新された勾配の方向を調節する新しいフレームワークであるDual Cone Gradient Descent (DCGD)を提案する。
論文 参考訳(メタデータ) (2024-09-27T03:27:46Z) - Residual-based attention and connection to information bottleneck theory
in PINNs [0.393259574660092]
近年,物理インフォームドニューラルネットワーク(PINN)への関心が高まっている。
本稿では,動的システムや静的システムの収束を加速する,PINNの効率的な勾配なし重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T16:29:55Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。