論文の概要: Graph Neural Preconditioners for Iterative Solutions of Sparse Linear Systems
- arxiv url: http://arxiv.org/abs/2406.00809v2
- Date: Wed, 02 Oct 2024 19:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 23:27:02.745114
- Title: Graph Neural Preconditioners for Iterative Solutions of Sparse Linear Systems
- Title(参考訳): スパース線形系の反復解に対するグラフニューラルプレコンディショナー
- Authors: Jie Chen,
- Abstract要約: 汎用プリコンディショナーとしてグラフニューラルネットワークを提案する。
多くの問題に対して魅力的なパフォーマンスを示しており、メインストリームのプレコンディショナーがパフォーマンスが悪い場合にも使用できる。
- 参考スコア(独自算出の注目度): 5.083469153675402
- License:
- Abstract: Preconditioning is at the heart of iterative solutions of large, sparse linear systems of equations in scientific disciplines. Several algebraic approaches, which access no information beyond the matrix itself, are widely studied and used, but ill-conditioned matrices remain very challenging. We take a machine learning approach and propose using graph neural networks as a general-purpose preconditioner. They show attractive performance for many problems and can be used when the mainstream preconditioners perform poorly. Empirical evaluation on over 800 matrices suggests that the construction time of these graph neural preconditioners (GNPs) is more predictable and can be much shorter than that of other widely used ones, such as ILU and AMG, while the execution time is faster than using a Krylov method as the preconditioner, such as in inner-outer GMRES. GNPs have a strong potential for solving large-scale, challenging algebraic problems arising from not only partial differential equations, but also economics, statistics, graph, and optimization, to name a few.
- Abstract(参考訳): プレコンディショニングは、科学分野における方程式の大規模でスパースな線形系の反復解の中心である。
行列自身以外の情報にアクセスしない代数的アプローチは広く研究され、使用されているが、不条件行列は非常に難しいままである。
機械学習のアプローチを採用し,汎用プリコンディショナとしてグラフニューラルネットワークを提案する。
多くの問題に対して魅力的なパフォーマンスを示しており、メインストリームのプレコンディショナーがパフォーマンスが悪い場合にも使用できる。
800以上の行列に対する実証的な評価は、これらのグラフニューラルプレコンディショナー(GNP)の構築時間は予測可能であり、ILUやAMGのような他の広く使われているものよりもはるかに短いことを示し、一方、実行時間はインナー・アウターGMRESのようなプリコンディショナーとしてKrylov法を使用するよりも高速であることを示している。
GNPは偏微分方程式だけでなく、経済学、統計学、グラフ、最適化から生じる大規模で挑戦的な代数的問題を解く強力な可能性を持っている。
関連論文リスト
- ReFill: Reinforcement Learning for Fill-In Minimization [3.9134031118910264]
補充の最小化はNPハードであり、既存の最小化(Minimum Degree)やNested Dissection(Nested Dissection)は適応性に制限を与える。
我々は,グラフニューラルネットワーク(GNN)によって強化された強化学習フレームワークであるtextitReFillを導入し,補充のための適応順序付け戦略を学習する。
論文 参考訳(メタデータ) (2025-01-27T15:20:41Z) - Learning incomplete factorization preconditioners for GMRES [1.1519724914285523]
行列分解を直接近似するためにグラフニューラルネットワークを訓練する。
グラフニューラルネットワークアーキテクチャを適用することで、出力自体がスパースであることを保証することができます。
GMRESの繰り返し回数を減らし、合成データに対するスペクトル特性を改善する効果を示す。
論文 参考訳(メタデータ) (2024-09-12T17:55:44Z) - Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers [40.6591136324878]
我々は,従来のプリコンディショナーよりもシステムの条件数を大幅に削減するプリコンディショナーを得るために,GNNを訓練する。
本手法は、パラメトリック偏微分方程式の重要なクラスにおいて、古典的およびニューラルネットワークに基づく手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-24T13:44:30Z) - Neural Time-Reversed Generalized Riccati Equation [60.92253836775246]
ハミルトン方程式は、コストテートとして知られる補助変数を通して最適性の解釈を提供する。
本稿では,前向きに作業することを目的とした,新しいニューラルベースによる最適制御手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T19:29:37Z) - Graph Neural Networks and Applied Linear Algebra [1.8749305679160366]
グラフニューラルネットワーク(GNN)は、スパース行列計算に適したアプローチである。
本稿では,数値線形代数オーディエンスのためのGNNを紹介する。
具体例は、GNNを用いて、どれだけの共通線型代数タスクを達成できるかを示すものである。
論文 参考訳(メタデータ) (2023-10-21T18:37:56Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Learning to Solve Combinatorial Graph Partitioning Problems via
Efficient Exploration [72.15369769265398]
実験により、ECORDは最大カット問題に対するRLアルゴリズムのための新しいSOTAを実現する。
最も近い競合と比較して、ECORDは最適性ギャップを最大73%削減する。
論文 参考訳(メタデータ) (2022-05-27T17:13:10Z) - Sparsified Linear Programming for Zero-Sum Equilibrium Finding [89.30539368124025]
我々は、この問題に対して全く異なるアプローチを示し、それは競争力があり、しばしば、以前の最先端技術よりも桁違いに優れている。
ポーカーエンドゲームの実験により、現代の線形プログラムソルバは、ゲーム固有のCFRの現代的な変種でさえも競合することを示した。
論文 参考訳(メタデータ) (2020-06-05T13:48:26Z) - Learning Algebraic Multigrid Using Graph Neural Networks [34.32501734380907]
我々は、そのような行列のクラス全体から長期演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験では、古典的なAMGと比較して収束率が改善された。
論文 参考訳(メタデータ) (2020-03-12T12:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。