論文の概要: Learning Relaxation for Multigrid
- arxiv url: http://arxiv.org/abs/2207.11255v1
- Date: Mon, 25 Jul 2022 12:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:59:10.217461
- Title: Learning Relaxation for Multigrid
- Title(参考訳): マルチグリッドのための学習緩和
- Authors: Dmitry Kuznichov
- Abstract要約: ニューラルネットワークを用いて、ランダムな係数を持つ拡散作用素のアンサンブルの緩和パラメータを学習する。
比較的小さなグリッド上での学習緩和パラメータを2グリッド法とGerlfandの公式を損失関数として容易に実装できることを示す。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During the last decade, Neural Networks (NNs) have proved to be extremely
effective tools in many fields of engineering, including autonomous vehicles,
medical diagnosis and search engines, and even in art creation. Indeed, NNs
often decisively outperform traditional algorithms. One area that is only
recently attracting significant interest is using NNs for designing numerical
solvers, particularly for discretized partial differential equations. Several
recent papers have considered employing NNs for developing multigrid methods,
which are a leading computational tool for solving discretized partial
differential equations and other sparse-matrix problems. We extend these new
ideas, focusing on so-called relaxation operators (also called smoothers),
which are an important component of the multigrid algorithm that has not yet
received much attention in this context. We explore an approach for using NNs
to learn relaxation parameters for an ensemble of diffusion operators with
random coefficients, for Jacobi type smoothers and for 4Color GaussSeidel
smoothers. The latter yield exceptionally efficient and easy to parallelize
Successive Over Relaxation (SOR) smoothers. Moreover, this work demonstrates
that learning relaxation parameters on relatively small grids using a two-grid
method and Gelfand's formula as a loss function can be implemented easily.
These methods efficiently produce nearly-optimal parameters, thereby
significantly improving the convergence rate of multigrid algorithms on large
grids.
- Abstract(参考訳): 過去10年間、ニューラルネットワーク(nns)は、自動運転車、医療診断、検索エンジン、さらにはアート創造など、多くのエンジニアリング分野で非常に効果的なツールであることが証明されてきた。
実際、NNは伝統的なアルゴリズムを著しく上回っている。
最近注目を浴びている分野の1つは、数値解法、特に離散偏微分方程式の設計にnnsを使うことである。
近年の論文では、離散偏微分方程式や他のスパース行列問題を解くための主要な計算ツールであるマルチグリッド法の開発にnnsを採用することを検討している。
我々はこれらの新しいアイデアを拡張し、この文脈ではあまり注目されていないマルチグリッドアルゴリズムの重要な構成要素である、いわゆる緩和演算子(スムーサーとも呼ばれる)に焦点を当てる。
NNを用いてランダムな係数を持つ拡散作用素のアンサンブル、ヤコビ型スムース、および4Color GaussSeidelスムースのために緩和パラメータを学習するためのアプローチを検討する。
後者は極めて効率的で、連続したオーバーリラクゼーション(sor)スムーザの並列化が容易である。
さらに,2グリッド法とGerlfandの公式を損失関数として,比較的小さな格子上での学習緩和パラメータを容易に実装できることを示す。
これらの手法は, ほぼ最適パラメータを効率的に生成し, 大規模グリッド上での乗算アルゴリズムの収束率を大幅に向上させる。
関連論文リスト
- Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Reducing operator complexity in Algebraic Multigrid with Machine
Learning Approaches [3.3610422011700187]
本稿では,データ駆動型および機械学習に基づく非ガレルキン粗グリッド演算子の計算手法を提案する。
ニューラルネットワーク(NN)とマルチグリッド固有値問題のスムーズなテストベクトルを組み合わせた新しいMLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-07-15T03:13:40Z) - A Deep Learning algorithm to accelerate Algebraic Multigrid methods in
Finite Element solvers of 3D elliptic PDEs [0.0]
本稿では,有限要素解法として用いる場合の代数的多重グリッド法の計算コストを最小化する新しいDeep Learningアルゴリズムを提案する。
本研究では,大きなスパース行列処理の計算コストを削減し,手前の回帰処理に必要な特徴を保存できることを実験的に証明する。
論文 参考訳(メタデータ) (2023-04-21T09:18:56Z) - Symmetric Tensor Networks for Generative Modeling and Constrained
Combinatorial Optimization [72.41480594026815]
ポートフォリオ最適化からロジスティクスに至るまで、制約付き最適化問題は業界に多い。
これらの問題の解決における主要な障害の1つは、有効な検索空間を制限する非自明なハード制約の存在である。
本研究では、Ax=bという形の任意の整数値等式制約をU(1)対称ネットワーク(TN)に直接エンコードし、それらの適用性を量子に着想を得た生成モデルとして活用する。
論文 参考訳(メタデータ) (2022-11-16T18:59:54Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Combinatorial optimization and reasoning with graph neural networks [7.8107109904672365]
コンビナート最適化は、オペレーション研究とコンピュータサイエンスにおいて確立された領域です。
近年、機械学習、特にグラフニューラルネットワーク(GNN)をタスクの重要なビルディングブロックとして使用することへの関心が高まっています。
論文 参考訳(メタデータ) (2021-02-18T18:47:20Z) - Scaling the Convex Barrier with Sparse Dual Algorithms [141.4085318878354]
本稿では,ニューラルネットワークバウンダリングのための2つの新しい2重アルゴリズムを提案する。
どちらの方法も新しい緩和の強さを回復する: 厳密さと線形分離オラクル。
実行時間のほんの一部で、既製のソルバよりも優れた境界を得ることができます。
論文 参考訳(メタデータ) (2021-01-14T19:45:17Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。