論文の概要: Learning optimal multigrid smoothers via neural networks
- arxiv url: http://arxiv.org/abs/2102.12071v1
- Date: Wed, 24 Feb 2021 05:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:21:28.951954
- Title: Learning optimal multigrid smoothers via neural networks
- Title(参考訳): ニューラルネットワークによる最適マルチグリッドスムースラーの学習
- Authors: Ru Huang, Ruipeng Li, Yuanzhe Xi
- Abstract要約: 畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multigrid methods are one of the most efficient techniques for solving linear
systems arising from Partial Differential Equations (PDEs) and graph Laplacians
from machine learning applications. One of the key components of multigrid is
smoothing, which aims at reducing high-frequency errors on each grid level.
However, finding optimal smoothing algorithms is problem-dependent and can
impose challenges for many problems. In this paper, we propose an efficient
adaptive framework for learning optimized smoothers from operator stencils in
the form of convolutional neural networks (CNNs). The CNNs are trained on
small-scale problems from a given type of PDEs based on a supervised loss
function derived from multigrid convergence theories, and can be applied to
large-scale problems of the same class of PDEs. Numerical results on
anisotropic rotated Laplacian problems demonstrate improved convergence rates
and solution time compared with classical hand-crafted relaxation methods.
- Abstract(参考訳): マルチグリッド法は、機械学習アプリケーションから部分微分方程式(PDE)とグラフラプラシアンから生じる線形システムを解くための最も効率的な技術の1つです。
マルチグリッドの重要なコンポーネントの1つは、各グリッドレベルの高周波エラーを減らすことを目的としたスムージングです。
しかし、最適な平滑化アルゴリズムを見つけることは問題に依存し、多くの問題に課題を課す可能性があります。
本稿では,畳み込みニューラルネットワーク(cnns)を用いて,演算子ステンシルから最適化スムーサを学習するための効率的な適応フレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小規模の問題を訓練し、同じ種類のPDEの大規模問題に適用することができる。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
関連論文リスト
- Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers [7.56372030029358]
高波動数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
我々のアーキテクチャは、様々な難易度の異なる低速モデルの一般化に利用することができ、低速モデルごとに多くの右辺を解くのに効率的である。
論文 参考訳(メタデータ) (2023-06-30T08:56:51Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Learning Subgrid-scale Models with Neural Ordinary Differential
Equations [0.39160947065896795]
偏微分方程式(PDE)をシミュレートする際のサブグリッドスケールモデル学習のための新しい手法を提案する。
このアプローチでは、ニューラルネットワークは粗大から細小のグリッドマップを学習するために使用され、これはサブグリッドスケールのパラメータ化と見なすことができる。
提案手法はNODEの利点を継承し,サブグリッドスケールのパラメータ化,近似結合演算子,低次解法の効率向上に利用することができる。
論文 参考訳(メタデータ) (2022-12-20T02:45:09Z) - Accelerated Solutions of Coupled Phase-Field Problems using Generative
Adversarial Networks [0.0]
我々は,エンコーダデコーダに基づく条件付きGeneLSTM層を用いたニューラルネットワークに基づく新しいフレームワークを開発し,Cahn-Hilliardマイクロ構造方程式を解く。
トレーニングされたモデルはメッシュとスケールに依存しないため、効果的なニューラル演算子としての応用が保証される。
論文 参考訳(メタデータ) (2022-11-22T08:32:22Z) - Learning Relaxation for Multigrid [1.14219428942199]
ニューラルネットワークを用いて、ランダムな係数を持つ拡散作用素のアンサンブルの緩和パラメータを学習する。
比較的小さなグリッド上での学習緩和パラメータを2グリッド法とGerlfandの公式を損失関数として容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-07-25T12:43:50Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。