論文の概要: A Neural-Operator Preconditioned Newton Method for Accelerated Nonlinear Solvers
- arxiv url: http://arxiv.org/abs/2511.08811v1
- Date: Thu, 13 Nov 2025 01:09:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.237407
- Title: A Neural-Operator Preconditioned Newton Method for Accelerated Nonlinear Solvers
- Title(参考訳): ニューラル演算子プレコンディショニング・ニュートン法による高速化非線形解法
- Authors: Youngkyu Lee, Shanqing Liu, Jerome Darbon, George Em Karniadakis,
- Abstract要約: 固定点反復をエミュレートすることで、現在の反復から解への直接写像を学習する固定点ニューラル演算子(FPNO)を導入する。
従来の線形探索アルゴリズムや信頼領域アルゴリズムとは異なり、提案されたFPNOは負のステップサイズを用いて非平衡非線形性の効果を効果的に緩和する。
- 参考スコア(独自算出の注目度): 4.9270397649918
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel neural preconditioned Newton (NP-Newton) method for solving parametric nonlinear systems of equations. To overcome the stagnation or instability of Newton iterations caused by unbalanced nonlinearities, we introduce a fixed-point neural operator (FPNO) that learns the direct mapping from the current iterate to the solution by emulating fixed-point iterations. Unlike traditional line-search or trust-region algorithms, the proposed FPNO adaptively employs negative step sizes to effectively mitigate the effects of unbalanced nonlinearities. Through numerical experiments we demonstrate the computational efficiency and robustness of the proposed NP-Newton method across multiple real-world applications, especially for very strong nonlinearities.
- Abstract(参考訳): パラメトリック非線形方程式系を解くためのニューラルプレコンディションニュートン法(NP-Newton)を提案する。
不均衡な非線形性に起因するニュートン反復の停滞や不安定性を克服するために、固定点反復をエミュレートして現在の反復から解への直接写像を学習する固定点ニューラル演算子(FPNO)を導入する。
従来の線形探索アルゴリズムや信頼領域アルゴリズムとは異なり、提案されたFPNOは負のステップサイズを用いて非平衡非線形性の効果を効果的に緩和する。
数値実験により,提案したNP-Newton法は実世界の複数の応用,特に非常に強い非線形性に対して,計算効率とロバスト性を示す。
関連論文リスト
- Neural-Initialized Newton: Accelerating Nonlinear Finite Elements via Operator Learning [0.0]
計算固体力学における非線形問題のパラメトリック解を高速化するニュートン法を提案する。
制御方程式の非線形パラメトリック解を近似するために、物理学的な条件付きニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2025-11-10T07:45:10Z) - A fast neural hybrid Newton solver adapted to implicit methods for nonlinear dynamics [6.642649934130245]
本稿では,厳密な時間進化非線形方程式に対する非線形時間ステップシステムのこの解を高速化する,新しいディープラーニングに基づくハイブリッドニュートン法を提案する。
ニュートン法における量的改善率を示し、教師なし学習戦略の一般化誤差の上限を解析する。
論文 参考訳(メタデータ) (2024-07-04T14:02:10Z) - On Newton's Method to Unlearn Neural Networks [44.85793893441989]
ニューラルネット(NN)に対する近似的未学習アルゴリズムを探索し、同じモデルを再学習したオラクルに返却する。
本稿では, 立方正則化を利用してヘッセン系縮退を効果的に処理するCureNewton法を提案する。
異なるモデルとデータセットをまたいだ実験により、我々の手法は、実践的な未学習環境で最先端のアルゴリズムと競合する未学習性能を達成できることを示した。
論文 参考訳(メタデータ) (2024-06-20T17:12:20Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - A Structure-Guided Gauss-Newton Method for Shallow ReLU Neural Network [18.06366638807982]
浅いReLUニューラルネットワークを用いて最小二乗問題を解くための構造誘導型ガウスニュートン法(SgGN)を提案する。
目的関数の最小二乗構造とニューラルネットワーク構造の両方を効果的に活用する。
論文 参考訳(メタデータ) (2024-04-07T20:24:44Z) - Improving Pseudo-Time Stepping Convergence for CFD Simulations With
Neural Networks [44.99833362998488]
ナビエ・ストークス方程式は、非常に非線形な振る舞いを示す。
ナヴィエ・ストークス方程式の離散化による非線形方程式の系はニュートン法のような非線形反復法を用いて解くことができる。
本稿では, 非線形収束を改善するために擬似過渡継続法を用いる。
論文 参考訳(メタデータ) (2023-10-10T15:45:19Z) - Stochastic Nonlinear Control via Finite-dimensional Spectral Dynamic Embedding [20.43835169613882]
本稿では,非線形系の最適制御のためのスペクトルダイナミクス埋め込み制御(SDEC)を提案する。
これはシステムの非線形力学によって誘導される無限次元の特徴表現を明らかにし、状態-作用値関数の線形表現を可能にする。
実用的な実装では、この表現は有限次元のトランケーションを用いて近似される。
論文 参考訳(メタデータ) (2023-04-08T04:23:46Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。