論文の概要: A Priori Generalization Error Analysis of Two-Layer Neural Networks for
Solving High Dimensional Schr\"odinger Eigenvalue Problems
- arxiv url: http://arxiv.org/abs/2105.01228v1
- Date: Tue, 4 May 2021 00:37:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 22:46:56.056671
- Title: A Priori Generalization Error Analysis of Two-Layer Neural Networks for
Solving High Dimensional Schr\"odinger Eigenvalue Problems
- Title(参考訳): 高次元schr\"odinger固有値問題を解くための2層ニューラルネットワークの事前一般化誤差解析
- Authors: Jianfeng Lu and Yulong Lu
- Abstract要約: 本稿では,2層ニューラルネットワークの一般化誤差を解析し,d$-dimensional hypercube上のschr"odinger演算子の基底状態を計算する。
- 参考スコア(独自算出の注目度): 11.666245561679602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper analyzes the generalization error of two-layer neural networks for
computing the ground state of the Schr\"odinger operator on a $d$-dimensional
hypercube. We prove that the convergence rate of the generalization error is
independent of the dimension $d$, under the a priori assumption that the ground
state lies in a spectral Barron space. We verify such assumption by proving a
new regularity estimate for the ground state in the spectral Barron space. The
later is achieved by a fixed point argument based on the Krein-Rutman theorem.
- Abstract(参考訳): 本稿では,2層ニューラルネットワークの一般化誤差を解析し,d$-dimensional hypercube上のschr\"odinger演算子の基底状態を計算する。
我々は、基底状態がスペクトルバロン空間にあるという前提条件の下で、一般化誤差の収束速度が次元$d$とは独立であることを証明する。
スペクトルバロン空間における基底状態の新たな正規性推定を証明し,その仮定を検証する。
後者はクライン=ルトマンの定理に基づく不動点引数によって達成される。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - Convergence Analysis of the Deep Galerkin Method for Weak Solutions [9.920833699101195]
DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
論文 参考訳(メタデータ) (2023-02-05T15:25:16Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - On generalization bounds for deep networks based on loss surface
implicit regularization [5.68558935178946]
現代のディープニューラルネットワークは、多くのパラメータにもかかわらずよく一般化されている。
現在のディープニューラルネットワークは、多くのパラメータが古典的な統計的学習理論と矛盾するにもかかわらず、よく一般化されている。
論文 参考訳(メタデータ) (2022-01-12T16:41:34Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Exact-WKB, complete resurgent structure, and mixed anomaly in quantum
mechanics on $S^1$ [0.0]
周期ポテンシャルにおける量子力学の正確なWKB解析について検討する。
本稿では、一般的な潜在的な問題のストークスグラフを、Airy型または退化Weber型ビルディングブロックのネットワークとして記述する。
論文 参考訳(メタデータ) (2021-03-11T10:32:12Z) - A Priori Generalization Analysis of the Deep Ritz Method for Solving
High Dimensional Elliptic Equations [11.974322921837384]
Deep Ritz Method (DRM) の枠組みにおける2層ニューラルネットワークの一般化誤差境界を導出する。
一般化誤差の収束率は次元 $d$ から独立であることが証明される。
我々はスペクトルバロン空間上のPDEに対する新しい解理論を開発する。
論文 参考訳(メタデータ) (2021-01-05T18:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。