論文の概要: Error Estimation for Physics-informed Neural Networks Approximating
Semilinear Wave Equations
- arxiv url: http://arxiv.org/abs/2402.07153v1
- Date: Sun, 11 Feb 2024 10:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 17:20:32.901111
- Title: Error Estimation for Physics-informed Neural Networks Approximating
Semilinear Wave Equations
- Title(参考訳): 半線形波動方程式近似による物理形ニューラルネットワークの誤差推定
- Authors: Beatrice Lorenz, Aras Bacho, Gitta Kutyniok
- Abstract要約: 本稿では、半線形波動方程式を近似した物理情報ニューラルネットワークに対する厳密な誤差境界を提供する。
ネットワークの層幅と2つの隠蔽層を持つタンニューラルネットのトレーニングポイント数の観点から、一般化とトレーニングエラーのバウンダリを提供する。
- 参考スコア(独自算出の注目度): 15.834703258232006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper provides rigorous error bounds for physics-informed neural
networks approximating the semilinear wave equation. We provide bounds for the
generalization and training error in terms of the width of the network's layers
and the number of training points for a tanh neural network with two hidden
layers. Our main result is a bound of the total error in the
$H^1([0,T];L^2(\Omega))$-norm in terms of the training error and the number of
training points, which can be made arbitrarily small under some assumptions. We
illustrate our theoretical bounds with numerical experiments.
- Abstract(参考訳): 本稿では、半線形波動方程式を近似した物理情報ニューラルネットワークに対する厳密な誤差境界を提供する。
ネットワークの層幅と2つの隠れ層を持つtanhニューラルネットワークのトレーニングポイント数の観点から、一般化とトレーニングエラーの境界を提供する。
我々の主な結果は、トレーニングエラーとトレーニングポイントの数で、$H^1([0,T];L^2(\Omega))$-normの総誤差の境界であり、いくつかの仮定では任意に小さくすることができる。
理論的な境界を数値実験で示す。
関連論文リスト
- Fundamental limits of overparametrized shallow neural networks for
supervised learning [11.136777922498355]
本研究では,教師ネットワークが生成した入力-出力ペアから学習した2層ニューラルネットワークについて検討する。
この結果は,トレーニングデータとネットワーク重み間の相互情報,すなわちベイズ最適一般化誤差に関連する境界の形で得られる。
論文 参考訳(メタデータ) (2023-07-11T08:30:50Z) - Error analysis for deep neural network approximations of parametric
hyperbolic conservation laws [7.6146285961466]
本稿では,ReLUニューラルネットワークを用いて近似誤差を所望の程度小さくすることができることを示す。
トレーニングエラー、トレーニングサンプル数、ニューラルネットワークサイズの観点から、一般化誤差の明示的な上限を提供する。
論文 参考訳(メタデータ) (2022-07-15T09:21:09Z) - Error estimates for physics informed neural networks approximating the
Navier-Stokes equations [6.445605125467574]
本研究では,2層を隠蔽したニューラルネットワークに対して,基礎となるPDE残差を任意に小さくすることができることを示す。
総誤差は、トレーニングエラー、ネットワークサイズ、および二次点数の観点から推定することができる。
論文 参考訳(メタデータ) (2022-03-17T14:26:17Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Vector-output ReLU Neural Network Problems are Copositive Programs:
Convex Analysis of Two Layer Networks and Polynomial-time Algorithms [29.975118690758126]
2層ベクトル無限ReLUニューラルネットワークトレーニング問題の半出力グローバル双対について述べる。
特定の問題のクラスに対して正確であることが保証されるソリューションを提供する。
論文 参考訳(メタデータ) (2020-12-24T17:03:30Z) - Higher-order Quasi-Monte Carlo Training of Deep Neural Networks [0.0]
本稿では,DNN (Deep Neural Network) によるDtO (Data-to-Observable) マップのトレーニングに準モンテカルロ点を用いた新しいアルゴリズム手法と誤差解析を提案する。
論文 参考訳(メタデータ) (2020-09-06T11:31:42Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z) - A Generalized Neural Tangent Kernel Analysis for Two-layer Neural
Networks [87.23360438947114]
重み劣化を伴う雑音勾配降下は依然として「カーネル様」の挙動を示すことを示す。
これは、トレーニング損失が一定の精度まで線形に収束することを意味する。
また,重み劣化を伴う雑音勾配勾配勾配で学習した2層ニューラルネットワークに対して,新しい一般化誤差を確立する。
論文 参考訳(メタデータ) (2020-02-10T18:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。