論文の概要: Blending Neural Operators and Relaxation Methods in PDE Numerical Solvers
- arxiv url: http://arxiv.org/abs/2208.13273v2
- Date: Mon, 2 Sep 2024 00:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 23:16:54.087060
- Title: Blending Neural Operators and Relaxation Methods in PDE Numerical Solvers
- Title(参考訳): PDE数値解におけるブレンディングニューラル演算子と緩和法
- Authors: Enrui Zhang, Adar Kahana, Alena Kopaničáková, Eli Turkel, Rishikesh Ranade, Jay Pathak, George Em Karniadakis,
- Abstract要約: HINTSは偏微分方程式のハイブリッド、反復、数値、移乗可能な解法である。
DeepONetのスペクトルバイアスを利用して固有モードのスペクトル間の収束挙動のバランスをとる。
離散化、計算領域、境界条件に関して柔軟である。
- 参考スコア(独自算出の注目度): 3.2712166248850685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks suffer from spectral bias having difficulty in representing the high frequency components of a function while relaxation methods can resolve high frequencies efficiently but stall at moderate to low frequencies. We exploit the weaknesses of the two approaches by combining them synergistically to develop a fast numerical solver of partial differential equations (PDEs) at scale. Specifically, we propose HINTS, a hybrid, iterative, numerical, and transferable solver by integrating a Deep Operator Network (DeepONet) with standard relaxation methods, leading to parallel efficiency and algorithmic scalability for a wide class of PDEs, not tractable with existing monolithic solvers. HINTS balances the convergence behavior across the spectrum of eigenmodes by utilizing the spectral bias of DeepONet, resulting in a uniform convergence rate and hence exceptional performance of the hybrid solver overall. Moreover, HINTS applies to large-scale, multidimensional systems, it is flexible with regards to discretizations, computational domain, and boundary conditions.
- Abstract(参考訳): ニューラルネットワークは、関数の高周波成分を表現するのが難しいスペクトルバイアスに悩まされ、緩和法は高周波数を効率的に解けるが、中程度の周波数から低い周波数で停止する。
この2つの手法の弱点を相乗的に組み合わせて、偏微分方程式(PDE)の高速数値解法を大規模に開発する。
具体的には,Deep Operator Network(DeepONet)と標準緩和手法を統合したハイブリッド,反復,数値,移動可能な解法であるHINTSを提案する。
HINTSは、DeepONetのスペクトルバイアスを利用して固有モードのスペクトル間の収束挙動をバランスさせ、その結果、一様収束率と、ハイブリッドソルバ全体の例外的な性能をもたらす。
さらに、HINTSは大規模多次元システムに適用され、離散化、計算領域、境界条件に関して柔軟である。
関連論文リスト
- Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Enhancing Solutions for Complex PDEs: Introducing Complementary Convolution and Equivariant Attention in Fourier Neural Operators [17.91230192726962]
複雑なPDEを解くために,畳み込み-残留層と注意機構を備えた新しい階層型フーリエニューラル演算子を提案する。
提案手法はこれらのPDEベンチマークにおいて,特に高速な係数変動を特徴とする方程式に対して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-11-21T11:04:13Z) - Spectral operator learning for parametric PDEs without data reliance [6.7083321695379885]
本研究では,データ活用を必要とせずにパラメトリック偏微分方程式(PDE)を解く演算子に基づく新しい手法を提案する。
提案手法は,既存の科学的機械学習技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T12:37:15Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Mitigating spectral bias for the multiscale operator learning [14.404769413313371]
本稿では階層的行列アプローチに着想を得た階層的注意神経演算子(HANO)を提案する。
HANOは、スケール適応的な相互作用範囲とレベル階層上の自己アテンションを備えており、制御可能な線形コストでネストされた特徴計算を可能にする。
我々の数値実験により,HANOは多スケール問題に対して最先端(SOTA)法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-19T21:09:29Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。