論文の概要: Error analysis for deep neural network approximations of parametric
hyperbolic conservation laws
- arxiv url: http://arxiv.org/abs/2207.07362v1
- Date: Fri, 15 Jul 2022 09:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 14:57:15.335310
- Title: Error analysis for deep neural network approximations of parametric
hyperbolic conservation laws
- Title(参考訳): パラメトリック双曲保存則のディープニューラルネットワーク近似に対する誤差解析
- Authors: Tim De Ryck, Siddhartha Mishra
- Abstract要約: 本稿では,ReLUニューラルネットワークを用いて近似誤差を所望の程度小さくすることができることを示す。
トレーニングエラー、トレーニングサンプル数、ニューラルネットワークサイズの観点から、一般化誤差の明示的な上限を提供する。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive rigorous bounds on the error resulting from the approximation of
the solution of parametric hyperbolic scalar conservation laws with ReLU neural
networks. We show that the approximation error can be made as small as desired
with ReLU neural networks that overcome the curse of dimensionality. In
addition, we provide an explicit upper bound on the generalization error in
terms of the training error, number of training samples and the neural network
size. The theoretical results are illustrated by numerical experiments.
- Abstract(参考訳): ReLUニューラルネットワークを用いたパラメトリック双曲スカラー保存法則の解の近似による誤差の厳密な境界を導出する。
本稿では,ReLUニューラルネットワークが次元の呪いを克服し,近似誤差を所望の程度小さくすることができることを示す。
さらに,トレーニング誤差,トレーニングサンプル数,ニューラルネットワークサイズに関して,一般化誤差の明示的な上限を与える。
理論的結果は数値実験によって示される。
関連論文リスト
- Error Estimation for Physics-informed Neural Networks Approximating
Semilinear Wave Equations [15.834703258232006]
本稿では、半線形波動方程式を近似した物理情報ニューラルネットワークに対する厳密な誤差境界を提供する。
ネットワークの層幅と2つの隠蔽層を持つタンニューラルネットのトレーニングポイント数の観点から、一般化とトレーニングエラーのバウンダリを提供する。
論文 参考訳(メタデータ) (2024-02-11T10:50:20Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Learning Distributions by Generative Adversarial Networks: Approximation
and Generalization [0.6768558752130311]
本研究では,これらのモデルの収束速度を解析することにより,有限サンプルから生成逆数ネットワークがいかによく学習するかを考察する。
我々の分析は、GANの推定誤差を判別器とジェネレータの近似誤差に分解する新しい不等式オラクルに基づいている。
生成元近似誤差に対して、ニューラルネットワークは、およそ低次元のソース分布を高次元のターゲット分布に変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-25T09:26:17Z) - Error estimates for physics informed neural networks approximating the
Navier-Stokes equations [6.445605125467574]
本研究では,2層を隠蔽したニューラルネットワークに対して,基礎となるPDE残差を任意に小さくすることができることを示す。
総誤差は、トレーニングエラー、ネットワークサイズ、および二次点数の観点から推定することができる。
論文 参考訳(メタデータ) (2022-03-17T14:26:17Z) - Generalization Error Bounds for Iterative Recovery Algorithms Unfolded
as Neural Networks [6.173968909465726]
線形測定の少ないスパース再構成に適したニューラルネットワークの一般クラスを導入する。
層間の重量共有を広範囲に行うことで、全く異なるニューラルネットワークタイプに対する統一的な分析を可能にします。
論文 参考訳(メタデータ) (2021-12-08T16:17:33Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - On the approximation of functions by tanh neural networks [0.0]
我々は、ソボレフ規則の近似で生じる高階ソボレフノルムにおける誤差の境界を導出する。
2つの隠れ層しか持たないtanhニューラルネットワークは、より深いreluニューラルネットワークよりも、同等あるいはそれ以上の速度で近似関数に十分であることを示す。
論文 参考訳(メタデータ) (2021-04-18T19:30:45Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。