論文の概要: Solving Maxwell's Equation in 2D with Neural Networks with Local
Converging Inputs
- arxiv url: http://arxiv.org/abs/2302.02860v1
- Date: Mon, 6 Feb 2023 15:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:21:19.725601
- Title: Solving Maxwell's Equation in 2D with Neural Networks with Local
Converging Inputs
- Title(参考訳): 局所収束入力を持つニューラルネットワークによる2次元マクスウェル方程式の解法
- Authors: Harris Cobb, Hwi Lee, Yingjie Liu
- Abstract要約: 完全導体に関するマクスウェル方程式を解くために、局所収束入力を持つニューラルネットワークを適用した。
実験は空間時空間格子点の数で計算複雑性を8,3ドルに抑えることを示す。
- 参考スコア(独自算出の注目度): 0.061386715480643554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we apply neural networks with local converging inputs (NNLCI),
originally introduced in [arXiv:2109.09316], to solve the two dimensional
Maxwell's equation around perfect electric conductors (PECs). The input to the
networks consist of local patches of low cost numerical solutions to the
equation computed on two coarse grids, and the output is a more accurate
solution at the center of the local patch. We apply the recently developed
second order finite difference method [arXiv:2209.00740] to generate the input
and training data which captures the scattering of electromagnetic waves off of
a PEC at a given terminal time. The advantage of NNLCI is that once trained it
offers an efficient alternative to costly high-resolution conventional
numerical methods; our numerical experiments indicate the computational
complexity saving by a factor of $8^3$ in terms of the number of
spatial-temporal grid points. In contrast with existing research work on
applying neural networks to directly solve PDEs, our method takes advantage of
the local domain of dependence of the Maxwell's equation in the input solution
patches, and is therefore simpler, yet still robust. We demonstrate that we can
train our neural network on some PECs to predict accurate solutions to
different PECs with quite different geometries from any of the training
examples.
- Abstract(参考訳): 本稿では,[arXiv:2109.09316]で最初に導入された局所収束入力(NNLCI)を用いたニューラルネットワークを適用し,完全導体(PEC)に関する2次元マックスウェル方程式を解く。
ネットワークへの入力は、2つの粗いグリッドで計算された方程式に対する低コストな数値解の局所パッチで構成され、出力は局所パッチの中心にあるより正確な解である。
我々は、最近開発された第2次有限差分法 [arXiv:2209.00740] を用いて、PECからの電磁波の散乱を所定の端末時間で捉える入力およびトレーニングデータを生成する。
nnlciの利点は、一度訓練すると、コストのかかる高分解能の従来の数値計算手法の効率的な代替手段となることであり、数値実験では、空間-時空間の格子点の数で計算の複雑さが8^3$であることを示している。
PDEを直接解くためにニューラルネットワークを適用するという既存の研究とは対照的に、本手法は入力解パッチにおけるマクスウェル方程式の局所的な依存性を生かし、したがってより単純で頑健である。
いくつかのPECでニューラルネットワークをトレーニングすることで、トレーニング例とはまったく異なるジオメトリを持つ異なるPECに対する正確なソリューションを予測できることを実証します。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Good Lattice Training: Physics-Informed Neural Networks Accelerated by
Number Theory [7.462336024223669]
本稿では,PINNのためのGLT(Good lattice Training)と呼ばれる新しい手法を提案する。
GLT は、少数の点や多次元空間に対しても有効であるコロケーション点の集合を提供する。
実験の結果、GLTはランダムサンプリングやラテンハイパーキューブサンプリングよりも2~20倍少ないコロケーションポイントを必要とすることがわかった。
論文 参考訳(メタデータ) (2023-07-26T00:01:21Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Efficient physics-informed neural networks using hash encoding [0.0]
物理インフォームドニューラルネットワーク(PINN)は科学計算において多くの注目を集めている。
トレーニング効率を向上させるために,マルチレゾリューションハッシュ符号化をPINNに組み込むことを提案する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
論文 参考訳(メタデータ) (2023-02-26T20:00:23Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。