論文の概要: NeuraLSP: An Efficient and Rigorous Neural Left Singular Subspace Preconditioner for Conjugate Gradient Methods
- arxiv url: http://arxiv.org/abs/2601.20174v2
- Date: Thu, 29 Jan 2026 01:54:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 14:13:20.04471
- Title: NeuraLSP: An Efficient and Rigorous Neural Left Singular Subspace Preconditioner for Conjugate Gradient Methods
- Title(参考訳): NeuraLSP: 共役勾配法のための効率的かつ厳密なニューラルネットワーク左特異部分空間プレコンディショナー
- Authors: Alexander Benanti, Xi Han, Hong Qin,
- Abstract要約: NeuraLSPはニューラルプレコンディショナーである。
提案手法は, インフレーションのランク付けにおける理論的保証と実証的堅牢性の両方を示し, 最大53%の高速化を実現した。
- 参考スコア(独自算出の注目度): 49.84495044725856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerical techniques for solving partial differential equations (PDEs) are integral for many fields across science and engineering. Such techniques usually involve solving large, sparse linear systems, where preconditioning methods are critical. In recent years, neural methods, particularly graph neural networks (GNNs), have demonstrated their potential through accelerated convergence. Nonetheless, to extract connective structures, existing techniques aggregate discretized system matrices into graphs, and suffer from rank inflation and a suboptimal convergence rate. In this paper, we articulate NeuraLSP, a novel neural preconditioner combined with a novel loss metric that leverages the left singular subspace of the system matrix's near-nullspace vectors. By compressing spectral information into a fixed low-rank operator, our method exhibits both theoretical guarantees and empirical robustness to rank inflation, affording up to a 53% speedup. Besides the theoretical guarantees for our newly-formulated loss function, our comprehensive experimental results across diverse families of PDEs also substantiate the aforementioned theoretical advances.
- Abstract(参考訳): 偏微分方程式(PDE)を解く数値的手法は、科学や工学における多くの分野において不可欠である。
このような手法は、通常、プレコンディショニング手法が重要となる大規模でスパースな線形系を解くことを含む。
近年、ニューラルネットワーク、特にグラフニューラルネットワーク(GNN)は、加速収束を通じてその可能性を実証している。
それでも、連結構造を抽出するために、既存の手法は離散化された系行列をグラフに集約し、階数インフレーションと準最適収束率に悩まされる。
本稿では,ニューラルプレコンディショナーであるNeuraLSPと,システム行列のニアヌル空間ベクトルの左特異部分空間を利用する新しいロスメトリックを併用する。
スペクトル情報を固定された低ランク演算子に圧縮することにより、理論的保証と経験的堅牢性の両方を示し、最大53%のスピードアップが可能となる。
新たに構成された損失関数の理論的保証に加えて,PDEの多種多様な家族を対象とした総合的な実験結果も,上記の理論的進歩を裏付けるものである。
関連論文リスト
- Spectral operator learning for parametric PDEs without data reliance [6.7083321695379885]
本研究では,データ活用を必要とせずにパラメトリック偏微分方程式(PDE)を解く演算子に基づく新しい手法を提案する。
提案手法は,既存の科学的機械学習技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T12:37:15Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - Convergence analysis of unsupervised Legendre-Galerkin neural networks
for linear second-order elliptic PDEs [0.8594140167290099]
教師なしレジェンダ-ガレルキンニューラルネットワーク(ULGNet)の収束解析を行う。
ULGNetは偏微分方程式(PDE)を解くためのディープラーニングに基づく数値法である
論文 参考訳(メタデータ) (2022-11-16T13:31:03Z) - Learning via nonlinear conjugate gradients and depth-varying neural ODEs [5.565364597145568]
ニューラル常微分方程式(NODE)における深度可変パラメータの教師付き再構成の逆問題について考察する。
提案したパラメータ再構成は,コスト関数の最小化による一般一階微分方程式に対して行われる。
感度問題は、トレーニングされたパラメータの摂動下でのネットワーク出力の変化を推定することができる。
論文 参考訳(メタデータ) (2022-02-11T17:00:48Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Semi-Implicit Neural Solver for Time-dependent Partial Differential
Equations [4.246966726709308]
本稿では,PDEの任意のクラスに対して,データ駆動方式で最適な反復スキームを学習するためのニューラルソルバを提案する。
従来の反復解法に類似したニューラルソルバの正当性と収束性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-09-03T12:03:10Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。