論文の概要: TSONN: Time-stepping-oriented neural network for solving partial
differential equations
- arxiv url: http://arxiv.org/abs/2310.16491v1
- Date: Wed, 25 Oct 2023 09:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:32:55.395537
- Title: TSONN: Time-stepping-oriented neural network for solving partial
differential equations
- Title(参考訳): TSONN:偏微分方程式を解くための時間ステッピング指向ニューラルネットワーク
- Authors: Wenbo Cao, Weiwei Zhang
- Abstract要約: この研究は、PDE問題を解決するために、タイムステッピング法とディープラーニングを統合する。
擬似タイムステッピング過程の軌跡に従うことにより、モデルトレーニングの収束性を大幅に改善する。
提案手法は,標準のPINNでは解けない多くの問題において,安定したトレーニングと正しい結果が得られることを示す。
- 参考スコア(独自算出の注目度): 1.9061608251056779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs), especially physics-informed neural networks
(PINNs), have recently become a new popular method for solving forward and
inverse problems governed by partial differential equations (PDEs). However,
these methods still face challenges in achieving stable training and obtaining
correct results in many problems, since minimizing PDE residuals with PDE-based
soft constraint make the problem ill-conditioned. Different from all existing
methods that directly minimize PDE residuals, this work integrates
time-stepping method with deep learning, and transforms the original
ill-conditioned optimization problem into a series of well-conditioned
sub-problems over given pseudo time intervals. The convergence of model
training is significantly improved by following the trajectory of the pseudo
time-stepping process, yielding a robust optimization-based PDE solver. Our
results show that the proposed method achieves stable training and correct
results in many problems that standard PINNs fail to solve, requiring only a
simple modification on the loss function. In addition, we demonstrate several
novel properties and advantages of time-stepping methods within the framework
of neural network-based optimization approach, in comparison to traditional
grid-based numerical method. Specifically, explicit scheme allows significantly
larger time step, while implicit scheme can be implemented as straightforwardly
as explicit scheme.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)、特に物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)によって支配される前方および逆問題の解法として人気がある。
しかしながら、これらの手法は、PDEベースのソフト制約によるPDE残差を最小限に抑えることにより、多くの問題において安定したトレーニングと正しい結果を得るという課題に直面している。
PDE残差を直接最小化する既存の方法とは異なり、この研究は深層学習とタイムステッピング法を統合し、元の不条件最適化問題を与えられた擬似時間間隔上の一連の条件付きサブプロブレムに変換する。
モデル学習の収束性は、擬似タイムステッピング過程の軌跡に従い、ロバストな最適化ベースのPDEソルバによって大幅に改善される。
その結果,本手法は安定なトレーニングを実現し,標準ピンが解決できない問題の多くを正すことができ,損失関数の修正だけでよいことがわかった。
さらに,ニューラルネットワークに基づく最適化手法の枠組みにおいて,従来のグリッド型数値法と比較して,時間決定手法の新たな特性と利点を示す。
具体的には、明示的なスキームははるかに大きな時間ステップを可能にするが、暗黙的なスキームは明示的なスキームのように簡単に実装できる。
関連論文リスト
- FEM-based Neural Networks for Solving Incompressible Fluid Flows and Related Inverse Problems [41.94295877935867]
偏微分方程式で記述された技術システムの数値シミュレーションと最適化は高価である。
この文脈で比較的新しいアプローチは、ニューラルネットワークの優れた近似特性と古典的有限要素法を組み合わせることである。
本稿では, この手法を, サドルポイント問題と非線形流体力学問題に拡張する。
論文 参考訳(メタデータ) (2024-09-06T07:17:01Z) - Constrained or Unconstrained? Neural-Network-Based Equation Discovery from Data [0.0]
我々はPDEをニューラルネットワークとして表現し、物理情報ニューラルネットワーク(PINN)に似た中間状態表現を用いる。
本稿では,この制約付き最適化問題を解くために,ペナルティ法と広く利用されている信頼領域障壁法を提案する。
バーガーズ方程式とコルトヴェーグ・ド・ヴライス方程式に関する我々の結果は、後者の制約付き手法がペナルティ法より優れていることを示している。
論文 参考訳(メタデータ) (2024-05-30T01:55:44Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Exact Enforcement of Temporal Continuity in Sequential Physics-Informed
Neural Networks [0.0]
解アンザッツを用いて連続時間セグメント間の連続性を強制する手法を提案する。
この手法は、線形PDEと非線形PDEの両方を含む多くのベンチマーク問題に対して試験される。
提案手法を用いて行った数値実験により,従来のPINNとソフトコントラストの双方に対して,コンバージェンスと精度が優れていた。
論文 参考訳(メタデータ) (2024-02-15T17:41:02Z) - Meta-learning of Physics-informed Neural Networks for Efficiently
Solving Newly Given PDEs [33.072056425485115]
本稿では、偏微分方程式(PDE)問題を効率的に解くニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は多種多様なPDE問題の解法をメタラーニングし,その知識を新たに与えられたPDE問題の解法に用いる。
提案手法は,PDE問題の解を予測する上で,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-20T04:35:59Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Neural Stochastic Dual Dynamic Programming [99.80617899593526]
我々は、問題インスタンスを断片的線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入する。
$nu$-SDDPは、ソリューションの品質を犠牲にすることなく、問題解決コストを大幅に削減できる。
論文 参考訳(メタデータ) (2021-12-01T22:55:23Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。