論文の概要: Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers
- arxiv url: http://arxiv.org/abs/2306.17486v2
- Date: Tue, 9 Jan 2024 16:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 20:06:14.065876
- Title: Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers
- Title(参考訳): コンパクトインシシット層を用いたヘルムホルツ方程式のマルチグリッド型深層学習プレコンディショナー
- Authors: Bar Lerer, Ido Ben-Yair and Eran Treister
- Abstract要約: 高波動数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
我々のアーキテクチャは、様々な難易度の異なる低速モデルの一般化に利用することができ、低速モデルごとに多くの右辺を解くのに効率的である。
- 参考スコア(独自算出の注目度): 7.56372030029358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deep learning-based iterative approach to solve the discrete
heterogeneous Helmholtz equation for high wavenumbers. Combining classical
iterative multigrid solvers and convolutional neural networks (CNNs) via
preconditioning, we obtain a learned neural solver that is faster and scales
better than a standard multigrid solver. Our approach offers three main
contributions over previous neural methods of this kind. First, we construct a
multilevel U-Net-like encoder-solver CNN with an implicit layer on the coarsest
grid of the U-Net, where convolution kernels are inverted. This alleviates the
field of view problem in CNNs and allows better scalability. Second, we improve
upon the previous CNN preconditioner in terms of the number of parameters,
computation time, and convergence rates. Third, we propose a multiscale
training approach that enables the network to scale to problems of previously
unseen dimensions while still maintaining a reasonable training procedure. Our
encoder-solver architecture can be used to generalize over different slowness
models of various difficulties and is efficient at solving for many right-hand
sides per slowness model. We demonstrate the benefits of our novel architecture
with numerical experiments on a variety of heterogeneous two-dimensional
problems at high wavenumbers.
- Abstract(参考訳): 高波数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
従来の反復型マルチグリッドソルバと畳み込みニューラルネットワーク(cnns)をプリコンディショニングによって組み合わせることで,従来のマルチグリッドソルバよりも高速かつスケール性が向上した学習ニューラルネットワークソルバを得る。
我々のアプローチは、この種の従来の神経学的手法に対する3つの主要な貢献を提供する。
まず、畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
これにより、CNNの視野の問題が軽減され、スケーラビリティが向上する。
第2に,パラメータ数,計算時間,収束率の観点から,従来のcnnプリコンディショナーを改善した。
第3に,ネットワークを合理的なトレーニング手順を維持しつつ,これまで見つからなかった次元の問題にスケール可能なマルチスケールトレーニング手法を提案する。
エンコーダ・ソルバアーキテクチャは,様々な難易度モデルに対する一般化に利用することができ,低速度モデルに対する多くの右辺の解法に有効である。
高波数における不均一な2次元問題に対する数値実験により,新しいアーキテクチャの利点を実証する。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Solving the Discretised Multiphase Flow Equations with Interface
Capturing on Structured Grids Using Machine Learning Libraries [0.6299766708197884]
本稿では,機械学習ライブラリのツールと手法を用いて,離散化した多相流方程式を解く。
はじめて、(訓練されていない)畳み込みニューラルネットワークに基づくアプローチを用いて、多相流の有限要素判別を解くことができる。
論文 参考訳(メタデータ) (2024-01-12T18:42:42Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Multigrid-augmented deep learning preconditioners for the Helmholtz
equation [4.18804572788063]
離散異種ヘルムホルツ方程式を高波数で解くためのデータ駆動型手法を提案する。
古典的反復解法と畳み込みニューラルネットワーク(CNN)を組み合わせることで、Krylov解法に適用される事前条件を形成する。
論文 参考訳(メタデータ) (2022-03-14T10:31:11Z) - Distributed Multigrid Neural Solvers on Megavoxel Domains [27.412837974378597]
フルフィールド出力を生成するPDEソルバの分散トレーニングを検討します。
2つの異なる進歩を統合するスケーラブルなフレームワークが提示される。
このアプローチは、出力フルフィールドソリューションを予測するためによくスケールする一般化された3D Poissonソルバを訓練するために展開されます。
論文 参考訳(メタデータ) (2021-04-29T17:53:22Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Implicit Convex Regularizers of CNN Architectures: Convex Optimization
of Two- and Three-Layer Networks in Polynomial Time [70.15611146583068]
本稿では,ReLUアクティベーションを用いた畳み込みニューラルネットワーク(CNN)のトレーニングについて検討する。
我々は,データサンプル数,ニューロン数,データ次元に関して,厳密な凸最適化を導入する。
論文 参考訳(メタデータ) (2020-06-26T04:47:20Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。