論文の概要: Multigrid-augmented deep learning preconditioners for the Helmholtz
equation
- arxiv url: http://arxiv.org/abs/2203.11025v1
- Date: Mon, 14 Mar 2022 10:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 10:46:39.185450
- Title: Multigrid-augmented deep learning preconditioners for the Helmholtz
equation
- Title(参考訳): ヘルムホルツ方程式に対する多重グリッド強化深層学習プレコンディショナー
- Authors: Yael Azulay and Eran Treister
- Abstract要約: 離散異種ヘルムホルツ方程式を高波数で解くためのデータ駆動型手法を提案する。
古典的反復解法と畳み込みニューラルネットワーク(CNN)を組み合わせることで、Krylov解法に適用される事前条件を形成する。
- 参考スコア(独自算出の注目度): 4.18804572788063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a data-driven approach to iteratively solve the
discrete heterogeneous Helmholtz equation at high wavenumbers. In our approach,
we combine classical iterative solvers with convolutional neural networks
(CNNs) to form a preconditioner which is applied within a Krylov solver. For
the preconditioner, we use a CNN of type U-Net that operates in conjunction
with multigrid ingredients. Two types of preconditioners are proposed 1) U-Net
as a coarse grid solver, and 2) U-Net as a deflation operator with shifted
Laplacian V-cycles. Following our training scheme and data-augmentation, our
CNN preconditioner can generalize over residuals and a relatively general set
of wave slowness models. On top of that, we also offer an encoder-solver
framework where an "encoder" network generalizes over the medium and sends
context vectors to another "solver" network, which generalizes over the
right-hand-sides. We show that this option is more robust and efficient than
the stand-alone variant. Lastly, we also offer a mini-retraining procedure, to
improve the solver after the model is known. This option is beneficial when
solving multiple right-hand-sides, like in inverse problems. We demonstrate the
efficiency and generalization abilities of our approach on a variety of 2D
problems.
- Abstract(参考訳): 本稿では,離散不均一ヘルムホルツ方程式を高波数で反復解くためのデータ駆動手法を提案する。
提案手法では,古典的反復解法を畳み込みニューラルネットワーク(CNN)と組み合わせて,Krylov解法内で適用可能なプレコンディショナーを形成する。
プリコンディショナーには、マルチグリッド成分と連動して動作するタイプU-NetのCNNを使用する。
2種類のプレコンディショナーの提案
1)粗いグリッドソルバとしてのu-net、及び
2)ラプラシアVサイクルシフトデフレ演算子としてのU-Net
トレーニングとデータ提供に続いて、cnnプリコンディショナーは残差と比較的一般的なウェーブスローネスモデルに対して一般化することができる。
その上、エンコーダ(encoder)ネットワークがメディア上で一般化し、コンテキストベクトルを別の"ソルバ(solver)"ネットワークに送信するエンコーダ(encoder)ソルバフレームワークも提供しています。
このオプションはスタンドアローン版よりも堅牢で効率的であることを示す。
最後に,モデルが分かってからソルバを改善するための,ミニリトレーニング手順も提供する。
このオプションは、逆問題のような複数の右利きの問題を解決する際に有益である。
様々な2次元問題に対して,提案手法の効率性と一般化能力を示す。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Physics-guided Full Waveform Inversion using Encoder-Solver Convolutional Neural Networks [7.56372030029358]
フルウェーブフォーム・インバージョン(Full Waveform Inversion, FWI)は、与えられた領域における波動速度分布を推定する逆問題である。
我々は畳み込みニューラルネットワークに基づくエンコーダ-ソルバ事前条件の学習プロセスを開発する。
高周波データを用いた2次元物理モデルを用いてFWI問題の解法を実証する。
論文 参考訳(メタデータ) (2024-05-27T23:03:21Z) - Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers [42.69799418639716]
深層学習モデルは、共役勾配 (CG) 法のような線形解法を反復する際の残差を予条件として用いることができる。
ニューラルネットワークモデルは、この設定でうまく近似するために、膨大な数のパラメータを必要とする。
本研究では,線形代数学から確立したプレコンディショナーを思い出し,GNNの学習の出発点として利用する。
論文 参考訳(メタデータ) (2024-05-24T13:44:30Z) - Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers [7.56372030029358]
高波動数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
我々のアーキテクチャは、様々な難易度の異なる低速モデルの一般化に利用することができ、低速モデルごとに多くの右辺を解くのに効率的である。
論文 参考訳(メタデータ) (2023-06-30T08:56:51Z) - Sampling binary sparse coding QUBO models using a spiking neuromorphic
processor [3.0586855806896045]
画像のバイナリ表現を計算することの問題点を考察する。
我々は、与えられた入力を最もよく再構成する二進ベクトル最小セットの基底を見つけることを目指している。
これはいわゆる準非拘束バイナリ(QUBO)問題をもたらす。
論文 参考訳(メタデータ) (2023-06-02T22:47:18Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning the Solution Operator of Boundary Value Problems using Graph
Neural Networks [0.0]
グラフニューラルネットワーク(GNN)とスペクトルグラフ畳み込みを用いた2つの異なる時間非依存PDEに対する一般解演算子を設計する。
我々は、様々な形状と不均一性の有限要素ソルバからシミュレーションデータを用いてネットワークを訓練する。
有限要素メッシュの変動が多岐にわたる多様なデータセット上でのトレーニングが,優れた一般化結果を得るための鍵となる要素であることがわかった。
論文 参考訳(メタデータ) (2022-06-28T15:39:06Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。