論文の概要: AutoBalance: An Automatic Balancing Framework for Training Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2510.06684v1
- Date: Wed, 08 Oct 2025 06:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.329973
- Title: AutoBalance: An Automatic Balancing Framework for Training Physics-Informed Neural Networks
- Title(参考訳): AutoBalance: 物理インフォームドニューラルネットワークのトレーニングのための自動バランシングフレームワーク
- Authors: Kang An, Chenhao Si, Ming Yan, Shiqian Ma,
- Abstract要約: PINNは部分微分方程式を解くための強力で一般的なフレームワークを提供する。
PINNは、PDE残差や境界条件などの複数の損失項のバランスをとる。
既存の手法では、最適化前に勾配を操作することでこの問題に対処している。
本稿では,新しい"ポストコンビイン"トレーニングパラダイムであるAutoBalanceを紹介する。
- 参考スコア(独自算出の注目度): 10.223108587188808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks (PINNs) provide a powerful and general framework for solving Partial Differential Equations (PDEs) by embedding physical laws into loss functions. However, training PINNs is notoriously difficult due to the need to balance multiple loss terms, such as PDE residuals and boundary conditions, which often have conflicting objectives and vastly different curvatures. Existing methods address this issue by manipulating gradients before optimization (a "pre-combine" strategy). We argue that this approach is fundamentally limited, as forcing a single optimizer to process gradients from spectrally heterogeneous loss landscapes disrupts its internal preconditioning. In this work, we introduce AutoBalance, a novel "post-combine" training paradigm. AutoBalance assigns an independent adaptive optimizer to each loss component and aggregates the resulting preconditioned updates afterwards. Extensive experiments on challenging PDE benchmarks show that AutoBalance consistently outperforms existing frameworks, achieving significant reductions in solution error, as measured by both the MSE and $L^{\infty}$ norms. Moreover, AutoBalance is orthogonal to and complementary with other popular PINN methodologies, amplifying their effectiveness on demanding benchmarks.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、物理法則を損失関数に埋め込むことで、部分微分方程式(PDE)を解くための強力で一般的なフレームワークを提供する。
しかし、PDE残差や境界条件などの複数の損失項のバランスをとる必要があるため、PINNの訓練は困難である。
既存の手法は最適化の前に勾配を操作することでこの問題に対処する("pre-combine"戦略)。
スペクトル的に不均一なロスランドスケープからの勾配処理を単一オプティマイザに強制することは、内部のプレコンディショニングを妨害するので、このアプローチは基本的に制限されていると我々は主張する。
本稿では,新しい"ポストコンビイン"トレーニングパラダイムであるAutoBalanceを紹介する。
AutoBalanceは、各損失コンポーネントに独立適応オプティマイザを割り当て、その後に得られた事前条件の更新を集約する。
挑戦的なPDEベンチマークに関する大規模な実験は、AutoBalanceが既存のフレームワークを一貫して上回り、MSEと$L^{\infty}$ノルムで測定されたように、ソリューションエラーの大幅な削減を実現していることを示している。
さらにAutoBalanceは、他の一般的なPINN方法論と直交し、それらが要求されるベンチマークにおける有効性を増幅する。
関連論文リスト
- Overcoming the Loss Conditioning Bottleneck in Optimization-Based PDE Solvers: A Novel Well-Conditioned Loss Function [1.6135205846394396]
近年,スカラー損失関数を最小化するPDEソルバが注目されている。
このような手法は古典的反復解法よりもはるかにゆっくりと収束し、一般に非効率的とみなされる。
この研究は理論的な洞察を与え、平均二乗誤差(MSE)損失の使用に非効率性をもたらす。
重みパラメータをチューニングすることにより、制限ケースでのMSE損失を低減しつつ、元のシステムとその正規方程式の間の条件数を柔軟に変調する。
論文 参考訳(メタデータ) (2025-07-24T10:17:02Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Dual-Balancing for Physics-Informed Neural Networks [5.8096456298528745]
偏微分方程式(PDE)を解くための新しい学習パラダイムとして、物理情報ニューラルネットワーク(PINN)が登場した。
PINNは、難解な多目的最適化の問題のため、精度が悪く、収束が遅い。
本稿では,バランシングとイントラバランシングを統合し,損失重みを動的に調整する新しいDual-Balanced PINN(DB-PINN)を提案する。
論文 参考訳(メタデータ) (2025-05-16T11:00:54Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。