論文の概要: Learning Algebraic Multigrid Using Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2003.05744v2
- Date: Thu, 24 Sep 2020 09:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:56:15.420317
- Title: Learning Algebraic Multigrid Using Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いた代数的マルチグリッドの学習
- Authors: Ilay Luz, Meirav Galun, Haggai Maron, Ronen Basri, Irad Yavneh
- Abstract要約: 我々は、そのような行列のクラス全体から長期演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験では、古典的なAMGと比較して収束率が改善された。
- 参考スコア(独自算出の注目度): 34.32501734380907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient numerical solvers for sparse linear systems are crucial in science
and engineering. One of the fastest methods for solving large-scale sparse
linear systems is algebraic multigrid (AMG). The main challenge in the
construction of AMG algorithms is the selection of the prolongation operator --
a problem-dependent sparse matrix which governs the multiscale hierarchy of the
solver and is critical to its efficiency. Over many years, numerous methods
have been developed for this task, and yet there is no known single right
answer except in very special cases. Here we propose a framework for learning
AMG prolongation operators for linear systems with sparse symmetric positive
(semi-) definite matrices. We train a single graph neural network to learn a
mapping from an entire class of such matrices to prolongation operators, using
an efficient unsupervised loss function. Experiments on a broad class of
problems demonstrate improved convergence rates compared to classical AMG,
demonstrating the potential utility of neural networks for developing sparse
system solvers.
- Abstract(参考訳): スパース線形システムの効率的な数値解法は、科学と工学において不可欠である。
大規模スパース線形系を解く最も早い方法の1つは代数的マルチグリッド (amg) である。
amgアルゴリズムの構築における主な課題は、解法の多スケール階層を制御し、その効率に重要な問題依存スパース行列である伸長演算子の選択である。
長年にわたり、この課題に対して多くの方法が開発されてきたが、非常に特殊な場合を除いて、単一の正解は知られていない。
本稿では,sparse symmetric positive (semi-) 行列を持つ線形系の amg 延長作用素を学習するためのフレームワークを提案する。
我々は、効率的な教師なし損失関数を用いて、そのような行列のクラス全体から伸長演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験により、従来のalgと比較して収束速度が向上し、スパースシステムソルバ開発におけるニューラルネットワークの潜在的有用性が示された。
関連論文リスト
- Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - Linear Recursive Feature Machines provably recover low-rank matrices [17.530511273384786]
我々は、RFMが次元還元を行うための最初の理論的保証を開発する。
反復重み付き最小二乗法 (IRLS) アルゴリズムを一般化する。
我々の結果は、ニューラルネットワークにおける特徴学習と古典的なスパースリカバリアルゴリズムの関連性に光を当てた。
論文 参考訳(メタデータ) (2024-01-09T13:44:12Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - A Deep Learning algorithm to accelerate Algebraic Multigrid methods in
Finite Element solvers of 3D elliptic PDEs [0.0]
本稿では,有限要素解法として用いる場合の代数的多重グリッド法の計算コストを最小化する新しいDeep Learningアルゴリズムを提案する。
本研究では,大きなスパース行列処理の計算コストを削減し,手前の回帰処理に必要な特徴を保存できることを実験的に証明する。
論文 参考訳(メタデータ) (2023-04-21T09:18:56Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Towards Neural Sparse Linear Solvers [0.0]
本研究では, 疎対称線形系の近似解法を学習するために, ニューラルスパース線形解法を提案する。
我々の手法はスパース対称線形系を無向重み付きグラフとして表現することに依存する。
構造工学からの静的線形解析問題に対して,スパース線形解法を検証した。
論文 参考訳(メタデータ) (2022-03-14T09:17:02Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Optimization-Based Algebraic Multigrid Coarsening Using Reinforcement
Learning [0.0]
線型方程式の系は未知の集合上のグラフを定義する。
多重グリッドソルバの各レベルは、粗グラフの適切な選択と、粗表現への写像と演算子を必要とする。
粗いグラフ選択を条件として、AMGと制限演算子を直接学習できることが示されている。
グラフニューラルネットワーク(GNN)に基づく強化学習エージェントを用いたスパース手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T13:57:32Z) - Joint Deep Reinforcement Learning and Unfolding: Beam Selection and
Precoding for mmWave Multiuser MIMO with Lens Arrays [54.43962058166702]
離散レンズアレイを用いたミリ波マルチユーザマルチインプット多重出力(MU-MIMO)システムに注目が集まっている。
本研究では、DLA を用いた mmWave MU-MIMO システムのビームプリコーディング行列の共同設計について検討する。
論文 参考訳(メタデータ) (2021-01-05T03:55:04Z) - GL-Coarsener: A Graph representation learning framework to construct
coarse grid hierarchy for AMG solvers [0.0]
代数的多重グリッド法(英: Algebraic multi-grid method、AMG)は、方程式の大きな線形系を効率的に解くために用いられる数値法である。
本稿では,グラフ表現学習とクラスタリングアルゴリズムを利用した集約型粗大化フレームワークを提案する。
提案手法は,AMG研究分野に機械学習の能力を導入し,今後の研究への新たな視点を開く。
論文 参考訳(メタデータ) (2020-11-19T17:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。