論文の概要: Near-Minimax Optimal Estimation With Shallow ReLU Neural Networks
- arxiv url: http://arxiv.org/abs/2109.08844v1
- Date: Sat, 18 Sep 2021 05:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:43:51.168336
- Title: Near-Minimax Optimal Estimation With Shallow ReLU Neural Networks
- Title(参考訳): 浅層reluニューラルネットワークを用いた最小近距離推定
- Authors: Rahul Parhi and Robert D. Nowak
- Abstract要約: 本研究では,浅層(単層)ReLUニューラルネットワークを用いた雑音データから未知の関数を推定する問題について検討する。
我々は、データ生成関数がラドン領域における二階有界変動関数の空間に属するとき、これらのニューラルネットワーク推定器の性能を定量化する。
- 参考スコア(独自算出の注目度): 19.216784367141972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of estimating an unknown function from noisy data using
shallow (single-hidden layer) ReLU neural networks. The estimators we study
minimize the sum of squared data-fitting errors plus a regularization term
proportional to the Euclidean norm of the network weights. This minimization
corresponds to the common approach of training a neural network with weight
decay. We quantify the performance (mean-squared error) of these neural network
estimators when the data-generating function belongs to the space of functions
of second-order bounded variation in the Radon domain. This space of functions
was recently proposed as the natural function space associated with shallow
ReLU neural networks. We derive a minimax lower bound for the estimation
problem for this function space and show that the neural network estimators are
minimax optimal up to logarithmic factors. We also show that this is a "mixed
variation" function space that contains classical multivariate function spaces
including certain Sobolev spaces and certain spectral Barron spaces. Finally,
we use these results to quantify a gap between neural networks and linear
methods (which include kernel methods). This paper sheds light on the
phenomenon that neural networks seem to break the curse of dimensionality.
- Abstract(参考訳): 浅層(単層)ReLUニューラルネットワークを用いた雑音データから未知関数を推定する問題について検討する。
本研究では,2乗データフィッティング誤差の和と,ネットワーク重みのユークリッドノルムに比例する正規化項を最小化する。
この最小化は、重み付きニューラルネットワークをトレーニングする一般的なアプローチに対応する。
データ生成関数がラドン領域の第2次有界変動関数の空間に属する場合、これらのニューラルネットワーク推定器の性能(平均二乗誤差)を定量化する。
この関数空間は、浅層reluニューラルネットワークに関連する自然関数空間として最近提案された。
この関数空間の推定問題に対してミニマックス下界を導出し、ニューラルネットワーク推定器が対数因子に最適であることを示す。
また、これはある種のソボレフ空間や特定のスペクトルバロン空間を含む古典的多変量函数空間を含む「混合変分」函数空間であることを示す。
最後に、これらの結果を用いて、ニューラルネットワークと線形メソッド(カーネルメソッドを含む)の間のギャップを定量化する。
この論文は、ニューラルネットワークが次元の呪いを破っているように見える現象に光を当てている。
関連論文リスト
- Dimension-independent learning rates for high-dimensional classification
problems [53.622581586464634]
各RBV2$関数は、重みが有界なニューラルネットワークによって近似可能であることを示す。
次に、分類関数を近似した有界重みを持つニューラルネットワークの存在を証明する。
論文 参考訳(メタデータ) (2024-09-26T16:02:13Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Nonparametric regression using over-parameterized shallow ReLU neural networks [10.339057554827392]
ニューラルネットワークは、ある滑らかな関数クラスから関数を学習するために、最小収束率(対数係数まで)を達成することができることを示す。
回帰関数は、滑らかな$alpha(d+3)/2$あるいは浅いニューラルネットワークに対応する変分空間を持つH"古い空間から来ていると仮定される。
副産物として、浅いReLUニューラルネットワークの局所ラデマッハ複雑性に対する新しいサイズ非依存境界を導出する。
論文 参考訳(メタデータ) (2023-06-14T07:42:37Z) - Optimal rates of approximation by shallow ReLU$^k$ neural networks and
applications to nonparametric regression [12.21422686958087]
本研究では、浅いReLU$k$のニューラルネットワークに対応する変動空間の近似能力について検討する。
滑らかさの低い関数に対しては、変動ノルムの観点から近似率が確立される。
浅層ニューラルネットワークは,H"古い関数の学習に最適な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-04T06:35:02Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - On the High Symmetry of Neural Network Functions [0.0]
ニューラルネットワークを訓練することは、高次元最適化問題を解決することを意味する。
本稿では,ニューラルネットワークの設計方法から,パラメータ空間においてニューラルネットワーク関数が非常に大きな対称性を示すことを示す。
論文 参考訳(メタデータ) (2022-11-12T07:51:14Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Achieving Small Test Error in Mildly Overparameterized Neural Networks [30.664282759625948]
時間内にこれらの点の1つを見つけるアルゴリズムを示す。
さらに、我々は、完全に接続されたニューラルネットワークのために、データ分布に追加の仮定で、時間アルゴリズムがあることを証明します。
論文 参考訳(メタデータ) (2021-04-24T06:47:20Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。