論文の概要: Learn Sharp Interface Solution by Homotopy Dynamics
- arxiv url: http://arxiv.org/abs/2502.00488v1
- Date: Sat, 01 Feb 2025 16:26:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:28.224607
- Title: Learn Sharp Interface Solution by Homotopy Dynamics
- Title(参考訳): ホモトピーダイナミクスによるシャープインタフェースの学習
- Authors: Chuqi Chen, Yahong Yang, Yang Xiang, Wenrui Hao,
- Abstract要約: 本稿では,物理インフォームドニューラルネットワーク(PINN)の学習における課題について考察する。
本稿では, PINN損失関数の最小化の難しさについて検討する。
NysNewton-CG(NysNewton-CG)を新たに導入し,PINNの性能を大幅に改善した。
- 参考スコア(独自算出の注目度): 7.890817997914349
- License:
- Abstract: This paper explores challenges in training Physics-Informed Neural Networks (PINNs), emphasizing the role of the loss landscape in the training process. We examine difficulties in minimizing the PINN loss function, particularly due to ill-conditioning caused by differential operators in the residual term. We compare gradient-based optimizers Adam, L-BFGS, and their combination \al{}, showing the superiority of \al{}, and introduce a novel second-order optimizer, NysNewton-CG (NNCG), which significantly improves PINN performance. Theoretically, our work elucidates the connection between ill-conditioned differential operators and ill-conditioning in the PINN loss and shows the benefits of combining first- and second-order optimization methods. Our work presents valuable insights and more powerful optimization strategies for training PINNs, which could improve the utility of PINNs for solving difficult partial differential equations.
- Abstract(参考訳): 本稿では,物理情報ニューラルネットワーク(PINN)の学習における課題について考察し,学習過程における損失景観の役割を強調した。
本稿では, PINN損失関数の最小化の難しさについて検討する。
我々は,勾配に基づく最適化器Adam,L-BFGS,およびそれらの組み合わせ \al{} を比較し,その優位性を示し,新しい2次最適化器 NysNewton-CG (NNCG) を導入し,PINNの性能を大幅に向上させた。
理論的には、不条件微分演算子と不条件演算子のPINN損失の関係を解明し、一階と二階の最適化法を組み合わせる利点を示す。
我々の研究は、PINNを訓練するための貴重な洞察とより強力な最適化戦略を示し、難しい偏微分方程式を解くためのPINNの有用性を向上させることができる。
関連論文リスト
- DiffGrad for Physics-Informed Neural Networks [0.0]
バーガーズ方程式(英: Burgers' equation)は流体力学の基本方程式であり、PINNで広く用いられている。
本稿では,DiffGradをPINNに組み込むことで,バーガースの方程式を解く新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T04:39:35Z) - Densely Multiplied Physics Informed Neural Networks [1.8554335256160261]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示している
本稿では,PINNの性能向上のためにニューラルネットワークアーキテクチャを改良する。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:45:31Z) - Challenges in Training PINNs: A Loss Landscape Perspective [16.89714536706181]
本稿では,物理インフォームドニューラルネットワーク(PINN)の学習における課題について考察する。
本稿では, PINN損失関数の最小化の難しさについて検討する。
NysNewton-CG(NysNewton-CG)を新たに導入し,PINNの性能を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-02T19:46:43Z) - A practical PINN framework for multi-scale problems with multi-magnitude
loss terms [3.8645424244172135]
PINNを用いたマルチスケール問題に対する実践的なディープラーニングフレームワークを提案する。
新しいPINN法は主に2つの点で従来のPINN法とは異なる。
提案手法は計算効率と計算精度において従来のPINN法より有意に優れていた。
論文 参考訳(メタデータ) (2023-08-13T03:26:01Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Multi-Objective Loss Balancing for Physics-Informed Deep Learning [0.0]
PINNを効果的に訓練するために、複数の競合損失関数の組み合わせを正しく重み付けする役割を観察する。
本稿では,ReLoBRaLoと呼ばれるPINNの自己適応的損失分散を提案する。
シミュレーションにより、ReLoBRaLoトレーニングは、他のバランシング手法によるPINNのトレーニングよりもはるかに高速で精度の高いことが示されている。
論文 参考訳(メタデータ) (2021-10-19T09:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。