論文の概要: A Neural-preconditioned Poisson Solver for Mixed Dirichlet and Neumann Boundary Conditions
- arxiv url: http://arxiv.org/abs/2310.00177v5
- Date: Fri, 14 Jun 2024 00:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 19:53:15.395769
- Title: A Neural-preconditioned Poisson Solver for Mixed Dirichlet and Neumann Boundary Conditions
- Title(参考訳): 混合ジリクレおよびノイマン境界条件に対するニューラルプレコンディショニングポアソンソルバー
- Authors: Kai Weixian Lan, Elias Gueidon, Ayano Kaneda, Julian Panetta, Joseph Teran,
- Abstract要約: 混合境界条件を持つポアソン方程式に対するニューラルプレコンディション付き反復解法を提案する。
プレコンディショナーの成功の鍵は、空間的に異なる畳み込みカーネルを特徴とする、新しくて軽量なニューラルネットワークアーキテクチャである。
- 参考スコア(独自算出の注目度): 4.180536812092903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a neural-preconditioned iterative solver for Poisson equations with mixed boundary conditions. Typical Poisson discretizations yield large, ill-conditioned linear systems. Iterative solvers can be effective for these problems, but only when equipped with powerful preconditioners. Unfortunately, effective preconditioners like multigrid require costly setup phases that must be re-executed every time domain shapes or boundary conditions change, forming a severe bottleneck for problems with evolving boundaries. In contrast, we present a neural preconditioner trained to efficiently approximate the inverse of the discrete Laplacian in the presence of such changes. Our approach generalizes to domain shapes, boundary conditions, and grid sizes outside the training set. The key to our preconditioner's success is a novel, lightweight neural network architecture featuring spatially varying convolution kernels and supporting fast inference. We demonstrate that our solver outperforms state-of-the-art methods like algebraic multigrid as well as recently proposed neural preconditioners on challenging test cases arising from incompressible fluid simulations.
- Abstract(参考訳): 混合境界条件を持つポアソン方程式に対するニューラルプレコンディション付き反復解法を提案する。
典型的なポアソンの離散化は、大きく、不条件の線形系をもたらす。
反復解法はこれらの問題に対して有効であるが、強力なプリコンディショナーを備える場合にのみ有効である。
残念ながら、マルチグリッドのような効果的なプレコンディショナーは、ドメインの形状や境界条件が変わるたびに再実行されなければならないコストの高いセットアップフェーズを必要とします。
対照的に、これらの変化が存在する場合、離散ラプラシアンの逆を効率的に近似するように訓練されたニューラルプレコンディショナーを提示する。
提案手法は, トレーニングセット外の領域形状, 境界条件, グリッドサイズに一般化する。
プレコンディショナーの成功の鍵は、空間的に異なる畳み込みカーネルを備え、高速な推論をサポートする、新しくて軽量なニューラルネットワークアーキテクチャである。
我々は,代数的マルチグリッドのような最先端の手法と,非圧縮流体シミュレーションによる挑戦的なテストケースに対するニューラルプレコンディショナーを比較検討した。
関連論文リスト
- FEM-based Neural Networks for Solving Incompressible Fluid Flows and Related Inverse Problems [41.94295877935867]
偏微分方程式で記述された技術システムの数値シミュレーションと最適化は高価である。
この文脈で比較的新しいアプローチは、ニューラルネットワークの優れた近似特性と古典的有限要素法を組み合わせることである。
本稿では, この手法を, サドルポイント問題と非線形流体力学問題に拡張する。
論文 参考訳(メタデータ) (2024-09-06T07:17:01Z) - Beyond Closure Models: Learning Chaotic-Systems via Physics-Informed Neural Operators [78.64101336150419]
カオスシステムの長期的挙動を予測することは、気候モデリングなどの様々な応用に不可欠である。
このような完全解法シミュレーションに対する別のアプローチは、粗いグリッドを使用して、時間テキストモデルによってエラーを修正することである。
この制限を克服する物理インフォームド・ニューラル演算子(PINO)を用いたエンド・ツー・エンドの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T17:05:45Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers [7.56372030029358]
高波動数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
我々のアーキテクチャは、様々な難易度の異なる低速モデルの一般化に利用することができ、低速モデルごとに多くの右辺を解くのに効率的である。
論文 参考訳(メタデータ) (2023-06-30T08:56:51Z) - Neural-network preconditioners for solving the Dirac equation in lattice
gauge theory [0.5999777817331318]
この研究は、格子量子場理論におけるウィルソン・ディラック正規方程式の解を加速するためのニューラルネットワークベースのプレコンディショナーを開発する。
また、小さな格子体積のアンサンブルで訓練されたプレコンディショナーを用いて、格子体積の何倍も大きいアンサンブルのためのプレコンディショナーを構築することができる。
論文 参考訳(メタデータ) (2022-08-04T15:50:41Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Quadratic Unconstrained Binary Optimisation via Quantum-Inspired
Annealing [58.720142291102135]
本稿では,2次非制約二項最適化の事例に対する近似解を求める古典的アルゴリズムを提案する。
我々は、チューニング可能な硬さと植え付けソリューションを備えた大規模問題インスタンスに対して、我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2021-08-18T09:26:17Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Maximin Optimization for Binary Regression [24.351803097593887]
二分重の回帰問題は、量子化学習モデルやデジタル通信システムにおいてユビキタスである。
Lagrangran法はまた、非ニューラルネットワーク多層サドルポイント最適化と同様に、クロスエントロピー損失を伴う回帰でもよく機能する。
論文 参考訳(メタデータ) (2020-10-10T19:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。