論文の概要: Estimates on the generalization error of Physics Informed Neural
Networks (PINNs) for approximating a class of inverse problems for PDEs
- arxiv url: http://arxiv.org/abs/2007.01138v2
- Date: Thu, 1 Apr 2021 15:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:33:31.124580
- Title: Estimates on the generalization error of Physics Informed Neural
Networks (PINNs) for approximating a class of inverse problems for PDEs
- Title(参考訳): PDEの逆問題クラス近似のための物理情報ニューラルネットワーク(PINN)の一般化誤差の推定
- Authors: Siddhartha Mishra and Roberto Molinaro
- Abstract要約: 我々は、逆問題、いわゆるデータ同化やユニークな継続問題に焦点をあてる。
PINNがそれらを近似する際の一般化誤差について厳密な推定値を示す。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics informed neural networks (PINNs) have recently been very successfully
applied for efficiently approximating inverse problems for PDEs. We focus on a
particular class of inverse problems, the so-called data assimilation or unique
continuation problems, and prove rigorous estimates on the generalization error
of PINNs approximating them. An abstract framework is presented and conditional
stability estimates for the underlying inverse problem are employed to derive
the estimate on the PINN generalization error, providing rigorous justification
for the use of PINNs in this context. The abstract framework is illustrated
with examples of four prototypical linear PDEs. Numerical experiments,
validating the proposed theory, are also presented.
- Abstract(参考訳): 物理情報ニューラルネットワーク(PINN)は、最近、PDEの逆問題を効率的に近似するために非常に成功した。
我々は,特定の逆問題,いわゆるデータ同化あるいは一意継続問題に焦点を当て,ピンの一般化誤差に対する厳密な推定を証明した。
抽象的枠組みを提示し, 基礎となる逆問題に対する条件付き安定性推定を行い, ピン一般化誤差の推定を導出し, この文脈におけるピンの使用の厳密な正当化を提供する。
抽象的なフレームワークは、4つの原型線形PDEの例で説明される。
また,提案理論を検証した数値実験を行った。
関連論文リスト
- Beyond Derivative Pathology of PINNs: Variable Splitting Strategy with Convergence Analysis [6.468495781611434]
物理インフォームドニューラルネットワーク(PINN)は、様々な問題において偏微分方程式(PDE)を解く効果的な方法として登場した。
本研究では,PINNが前提が無効であるという根本的な問題に直面していることを証明する。
本稿では,解の勾配を補助変数としてパラメータ化することで,この問題に対処するテキスト可変分割戦略を提案する。
論文 参考訳(メタデータ) (2024-09-30T15:20:10Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Lie Point Symmetry and Physics Informed Networks [59.56218517113066]
本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-07T19:07:16Z) - Physics-Aware Neural Networks for Boundary Layer Linear Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、一般偏微分方程式(PDE)の解をニューラルネットワークの損失/コストの観点から何らかの形で加算することによって近似する。
本稿では,1つ以上の境界層が存在する線形PDEに対するPINNについて検討する。
論文 参考訳(メタデータ) (2022-07-15T21:15:06Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Error analysis for physics informed neural networks (PINNs)
approximating Kolmogorov PDEs [0.0]
PINNによる大規模な放物型PDEの解の近似における誤差の厳密な境界を導出する。
PINN残差(一般化誤差)を所望の程度小さくできるニューラルネットワークを構築する。
これらの結果から,Kolmogorov PDEの近似におけるPINNの総合的誤差解析が可能となった。
論文 参考訳(メタデータ) (2021-06-28T08:37:56Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Advantage of Deep Neural Networks for Estimating Functions with
Singularity on Hypersurfaces [23.21591478556582]
我々は、ディープニューラルネットワーク(DNN)が他の標準手法よりも優れている理由を説明するために、ミニマックスレート分析を開発する。
本研究では,超曲面上の特異点を持つ非滑らか関数のクラスを推定することにより,このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2020-11-04T12:51:14Z) - Estimates on the generalization error of Physics Informed Neural
Networks (PINNs) for approximating PDEs [16.758334184623152]
PDEの前方問題の解を近似するPINNの一般化誤差に関する厳密な上限を提供する。
抽象形式論を導入し、基礎となるPDEの安定性特性を利用して一般化誤差の見積を導出する。
論文 参考訳(メタデータ) (2020-06-29T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。