論文の概要: Evaluating Error Bound for Physics-Informed Neural Networks on Linear
Dynamical Systems
- arxiv url: http://arxiv.org/abs/2207.01114v1
- Date: Sun, 3 Jul 2022 20:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 07:03:51.123341
- Title: Evaluating Error Bound for Physics-Informed Neural Networks on Linear
Dynamical Systems
- Title(参考訳): 線形力学系における物理形ニューラルネットワークの誤差境界評価
- Authors: Shuheng Liu, Xiyue Huang, Pavlos Protopapas
- Abstract要約: 本稿では、微分方程式の線形系のクラスで訓練された物理インフォームドニューラルネットワークに対して、数学的に明示的な誤差境界を導出できることを示す。
我々の研究は、損失関数として知られ、使われているネットワーク残基と、一般には知られていない解の絶対誤差とのリンクを示す。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There have been extensive studies on solving differential equations using
physics-informed neural networks. While this method has proven advantageous in
many cases, a major criticism lies in its lack of analytical error bounds.
Therefore, it is less credible than its traditional counterparts, such as the
finite difference method. This paper shows that one can mathematically derive
explicit error bounds for physics-informed neural networks trained on a class
of linear systems of differential equations. More importantly, evaluating such
error bounds only requires evaluating the differential equation residual
infinity norm over the domain of interest. Our work shows a link between
network residuals, which is known and used as loss function, and the absolute
error of solution, which is generally unknown. Our approach is
semi-phenomonological and independent of knowledge of the actual solution or
the complexity or architecture of the network. Using the method of manufactured
solution on linear ODEs and system of linear ODEs, we empirically verify the
error evaluation algorithm and demonstrate that the actual error strictly lies
within our derived bound.
- Abstract(参考訳): 物理インフォームドニューラルネットワークを用いた微分方程式の解法に関する研究が盛んに行われている。
この手法は多くのケースで有利であることが証明されているが、大きな批判は分析誤差境界の欠如にある。
したがって、有限差分法のような従来の方法よりも信頼性が低い。
本稿では、微分方程式の線形系上で訓練された物理形ニューラルネットワークに対して、数学的に明示的な誤差境界を導出できることを示す。
より重要なことに、そのような誤差境界の評価は、関心領域上の微分方程式の剰無限ノルムの評価のみを必要とする。
本研究は,損失関数として知られているネットワーク残差と,一般に不明な解の絶対誤差とのリンクを示す。
私たちのアプローチは半現象論的であり、実際のソリューションやネットワークの複雑さやアーキテクチャに関する知識とは無関係です。
線形ODEと線形ODEのシステム上で製造された解法を用いて,誤差評価アルゴリズムを実証的に検証し,実際の誤差が導出境界内にあることを実証する。
関連論文リスト
- Exact and approximate error bounds for physics-informed neural networks [1.236974227340167]
非線形一階ODEの物理インフォームドニューラルネットワーク(PINN)の誤差境界計算における重要な進歩を報告する。
PINN法が非線形一階ODEに対して提供する解の誤差を記述する一般表現を与える。
本稿では,一般の場合の近似境界と特定の場合の正確な境界を計算する手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T05:15:28Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Identifiability and Asymptotics in Learning Homogeneous Linear ODE Systems from Discrete Observations [114.17826109037048]
通常の微分方程式(ODE)は、機械学習において最近多くの注目を集めている。
理論的な側面、例えば、統計的推定の識別可能性と特性は、いまだに不明である。
本稿では,1つの軌道からサンプリングされた等間隔の誤差のない観測結果から,同次線形ODE系の同定可能性について十分な条件を導出する。
論文 参考訳(メタデータ) (2022-10-12T06:46:38Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation [16.64525769134209]
線形微分方程式と非線形微分方程式の両方における様々なニューラルネットワークアーキテクチャの性能と精度について検討する。
我々は、微分方程式の解を予測するために、新しいレジェンダ-ガレルキンディープニューラルネットワーク(LGNet)アルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-10-24T20:25:09Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Error Estimation and Correction from within Neural Network Differential
Equation Solvers [3.04585143845864]
本稿では,ニューラルネットワーク微分方程式解法における誤差推定と補正の戦略について述べる。
提案手法では, 真の解の事前知識を必要とせず, 損失関数と解推定に伴う誤差との明確な関係を求める。
論文 参考訳(メタデータ) (2020-07-09T11:01:44Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。