論文の概要: Reducing operator complexity in Algebraic Multigrid with Machine
Learning Approaches
- arxiv url: http://arxiv.org/abs/2307.07695v1
- Date: Sat, 15 Jul 2023 03:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:27:45.254849
- Title: Reducing operator complexity in Algebraic Multigrid with Machine
Learning Approaches
- Title(参考訳): 機械学習による代数的マルチグリッドにおける演算子複雑性の低減
- Authors: Ru Huang, Kai Chang, Huan He, Ruipeng Li, Yuanzhe Xi
- Abstract要約: 本稿では,データ駆動型および機械学習に基づく非ガレルキン粗グリッド演算子の計算手法を提案する。
ニューラルネットワーク(NN)とマルチグリッド固有値問題のスムーズなテストベクトルを組み合わせた新しいMLアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 3.3610422011700187
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a data-driven and machine-learning-based approach to compute
non-Galerkin coarse-grid operators in algebraic multigrid (AMG) methods,
addressing the well-known issue of increasing operator complexity. Guided by
the AMG theory on spectrally equivalent coarse-grid operators, we have
developed novel ML algorithms that utilize neural networks (NNs) combined with
smooth test vectors from multigrid eigenvalue problems. The proposed method
demonstrates promise in reducing the complexity of coarse-grid operators while
maintaining overall AMG convergence for solving parametric partial differential
equation (PDE) problems. Numerical experiments on anisotropic rotated Laplacian
and linear elasticity problems are provided to showcase the performance and
compare with existing methods for computing non-Galerkin coarse-grid operators.
- Abstract(参考訳): 本稿では,代数的多重グリッド(AMG)法で非ガレルキン粗グリッド演算子を計算するためのデータ駆動型機械学習手法を提案する。
スペクトル等価な粗グリッド作用素に関するAMG理論により、ニューラルネットワーク(NN)とマルチグリッド固有値問題からの滑らかなテストベクトルを組み合わせた新しいMLアルゴリズムを開発した。
提案手法は,パラメトリック偏微分方程式(pde)問題を解くために,全体的な amg 収束を維持しつつ,粗い格子作用素の複雑性を低減できる可能性を示す。
異方性回転ラプラシアンおよび線形弾性問題に関する数値実験を行い,非ガレルキン粗格子作用素の計算法との比較を行った。
関連論文リスト
- An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - A Deep Learning algorithm to accelerate Algebraic Multigrid methods in
Finite Element solvers of 3D elliptic PDEs [0.0]
本稿では,有限要素解法として用いる場合の代数的多重グリッド法の計算コストを最小化する新しいDeep Learningアルゴリズムを提案する。
本研究では,大きなスパース行列処理の計算コストを削減し,手前の回帰処理に必要な特徴を保存できることを実験的に証明する。
論文 参考訳(メタデータ) (2023-04-21T09:18:56Z) - Relational Reasoning via Set Transformers: Provable Efficiency and
Applications to MARL [154.13105285663656]
置換不変エージェントフレームワークを用いたMARL(Multi-A gent R einforcement Learning)は,実世界のアプリケーションにおいて大きな実証的成功を収めた。
残念なことに、このMARL問題の理論的理解は、多くのエージェントの呪いと、既存の著作における関係推論の限定的な探索によって欠落している。
モデルフリーアルゴリズムとモデルベースアルゴリズムの最適度差は各エージェント数に独立して対数的であり、多くのエージェントの呪いを和らげる。
論文 参考訳(メタデータ) (2022-09-20T16:42:59Z) - Learning Relaxation for Multigrid [1.14219428942199]
ニューラルネットワークを用いて、ランダムな係数を持つ拡散作用素のアンサンブルの緩和パラメータを学習する。
比較的小さなグリッド上での学習緩和パラメータを2グリッド法とGerlfandの公式を損失関数として容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-07-25T12:43:50Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - GL-Coarsener: A Graph representation learning framework to construct
coarse grid hierarchy for AMG solvers [0.0]
代数的多重グリッド法(英: Algebraic multi-grid method、AMG)は、方程式の大きな線形系を効率的に解くために用いられる数値法である。
本稿では,グラフ表現学習とクラスタリングアルゴリズムを利用した集約型粗大化フレームワークを提案する。
提案手法は,AMG研究分野に機械学習の能力を導入し,今後の研究への新たな視点を開く。
論文 参考訳(メタデータ) (2020-11-19T17:49:09Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Learning Algebraic Multigrid Using Graph Neural Networks [34.32501734380907]
我々は、そのような行列のクラス全体から長期演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験では、古典的なAMGと比較して収束率が改善された。
論文 参考訳(メタデータ) (2020-03-12T12:36:48Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。