論文の概要: Solving partial differential equations with sampled neural networks
- arxiv url: http://arxiv.org/abs/2405.20836v1
- Date: Fri, 31 May 2024 14:24:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-06-03 14:18:09.517104
- Title: Solving partial differential equations with sampled neural networks
- Title(参考訳): ニューラルネットワークを用いた偏微分方程式の解法
- Authors: Chinmay Datar, Taniya Kapoor, Abhishek Chandra, Qing Sun, Iryna Burak, Erik Lien Bolager, Anna Veselovska, Massimo Fornasier, Felix Dietrich,
- Abstract要約: 偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
- 参考スコア(独自算出の注目度): 1.8590821261905535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approximation of solutions to partial differential equations (PDE) is an important problem in computational science and engineering. Using neural networks as an ansatz for the solution has proven a challenge in terms of training time and approximation accuracy. In this contribution, we discuss how sampling the hidden weights and biases of the ansatz network from data-agnostic and data-dependent probability distributions allows us to progress on both challenges. In most examples, the random sampling schemes outperform iterative, gradient-based optimization of physics-informed neural networks regarding training time and accuracy by several orders of magnitude. For time-dependent PDE, we construct neural basis functions only in the spatial domain and then solve the associated ordinary differential equation with classical methods from scientific computing over a long time horizon. This alleviates one of the greatest challenges for neural PDE solvers because it does not require us to parameterize the solution in time. For second-order elliptic PDE in Barron spaces, we prove the existence of sampled networks with $L^2$ convergence to the solution. We demonstrate our approach on several time-dependent and static PDEs. We also illustrate how sampled networks can effectively solve inverse problems in this setting. Benefits compared to common numerical schemes include spectral convergence and mesh-free construction of basis functions.
- Abstract(参考訳): 偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
ニューラルネットワークを解のアンザッツとして使うことは、トレーニング時間と近似精度の点で難しいことが証明されている。
本稿では,データ非依存およびデータ依存確率分布からアンザッツネットワークの隠れ重みとバイアスをサンプリングすることにより,両課題を進展させる方法について論じる。
ほとんどの例では、ランダムサンプリングスキームは、数桁のトレーニング時間と精度に関して、物理インフォームドニューラルネットワークの反復的、勾配に基づく最適化よりも優れています。
時間依存型PDEでは、空間領域のみに神経基底関数を構築し、それに関連する常微分方程式を科学計算の古典的手法で長い時間的地平線上で解く。
これにより、時間内に解をパラメータ化する必要がなくなるため、ニューラルPDEソルバの最大の課題の1つが軽減される。
バロン空間における二階楕円型PDEに対して、この解に$L^2$収束したサンプルネットワークの存在を証明する。
いくつかの時間依存型および静的PDEに対するアプローチを実証する。
また,本設定における逆問題に対して,サンプルネットワークが効果的に解決する方法について述べる。
一般的な数値スキームと比較しての利点は、スペクトル収束と基底関数のメッシュフリーな構成である。
関連論文リスト
- High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - Global Convergence of Adjoint-Optimized Neural PDEs [0.0]
本研究では,ニューラルネットワークを用いたPDEモデルの学習において,隠れた単位数と学習時間の両方が無限大となるような条件下での随伴勾配勾配勾配最適化手法の収束性について検討する。
具体的には、ニューラルネットワークを元項に埋め込んだ非線形放物型PDEの一般クラスに対して、ターゲットデータ(すなわち、大域的最小化器)に対する訓練されたニューラルネットワークPDEソリューションを証明する。
大域収束証明は有限次元収束解析では遭遇しないユニークな数学的挑戦を示す。
論文 参考訳(メタデータ) (2025-06-16T16:00:00Z) - Solving Partial Differential Equations with Random Feature Models [1.3597551064547502]
PDEを効率的に解くためのランダムな特徴ベースのフレームワークを提案する。
多数のコロケーションポイントを持つ問題に直面する最先端の解法とは対照的に,提案手法は計算複雑性を低減させる。
論文 参考訳(メタデータ) (2024-12-31T05:48:31Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Physics-informed deep learning and compressive collocation for high-dimensional diffusion-reaction equations: practical existence theory and numerics [5.380276949049726]
ディープラーニング(DL)に基づく高次元偏微分方程式の効率的な解法の開発と解析
理論的にも数値的にも,新しい安定かつ高精度なスペクトルコロケーション法と競合できることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:16:11Z) - Constrained or Unconstrained? Neural-Network-Based Equation Discovery from Data [0.0]
我々はPDEをニューラルネットワークとして表現し、物理情報ニューラルネットワーク(PINN)に似た中間状態表現を用いる。
本稿では,この制約付き最適化問題を解くために,ペナルティ法と広く利用されている信頼領域障壁法を提案する。
バーガーズ方程式とコルトヴェーグ・ド・ヴライス方程式に関する我々の結果は、後者の制約付き手法がペナルティ法より優れていることを示している。
論文 参考訳(メタデータ) (2024-05-30T01:55:44Z) - Efficient Discrete Physics-informed Neural Networks for Addressing
Evolutionary Partial Differential Equations [7.235476098729406]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングを用いて偏微分方程式(PDE)を解く有望な可能性を示している。
PINNの損失における時間的特徴の全てを同時に訓練するため、PINNは時間的因果性に違反する可能性がある。
本稿では,時間的因果関係を強制するために暗黙の時間差分法を用い,空間内のPINNを異なる時間フレームにおけるPDEソリューションのサロゲートとして逐次更新するために転送学習を用いることを提案する。
論文 参考訳(メタデータ) (2023-12-22T11:09:01Z) - A Sequential Meta-Transfer (SMT) Learning to Combat Complexities of
Physics-Informed Neural Networks: Application to Composites Autoclave
Processing [1.6317061277457001]
PINNは非線形偏微分方程式の解法として人気がある。
PINNは、与えられたPDEシステムの特定の実現を近似するように設計されている。
新しいシステム構成に効率的に適応するために必要な一般化性は欠如している。
論文 参考訳(メタデータ) (2023-08-12T02:46:54Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - A unified scalable framework for causal sweeping strategies for
Physics-Informed Neural Networks (PINNs) and their temporal decompositions [22.514769448363754]
PINNとXPINNの時間依存型PDEのトレーニング課題について論じる。
PINNとXPINNのギャップを埋める新しい積み重ね分解法を提案する。
また,従来のPINNの因果性にインスパイアされた新しいタイムスウィーピング・コロケーション・ポイント・アルゴリズムを定式化した。
論文 参考訳(メタデータ) (2023-02-28T01:19:21Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - PIXEL: Physics-Informed Cell Representations for Fast and Accurate PDE
Solvers [4.1173475271436155]
物理インフォームドセル表現(PIXEL)と呼ばれる新しいデータ駆動型PDEの解法を提案する。
PIXELは古典的な数値法と学習に基づくアプローチをエレガントに組み合わせている。
PIXELは高速収束速度と高精度を実現する。
論文 参考訳(メタデータ) (2022-07-26T10:46:56Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving
Spatiotemporal PDEs [8.220908558735884]
偏微分方程式 (Partial differential equation, PDE) は、幅広い分野の問題をモデル化し、シミュレーションする上で基礎的な役割を果たす。
近年のディープラーニングの進歩は、データ駆動逆解析の基盤としてPDEを解くために物理学インフォームドニューラルネットワーク(NN)の大きな可能性を示している。
本稿では,PDEをラベル付きデータなしで解くための物理インフォームド・畳み込み学習アーキテクチャ(PhyCRNetとPhCRyNet-s)を提案する。
論文 参考訳(メタデータ) (2021-06-26T22:22:19Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。