論文の概要: Achieving Small Test Error in Mildly Overparameterized Neural Networks
- arxiv url: http://arxiv.org/abs/2104.11895v1
- Date: Sat, 24 Apr 2021 06:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 03:23:40.933018
- Title: Achieving Small Test Error in Mildly Overparameterized Neural Networks
- Title(参考訳): 軽度過パラメータニューラルネットワークにおける小さなテスト誤差の達成
- Authors: Shiyu Liang, Ruoyu Sun and R. Srikant
- Abstract要約: 時間内にこれらの点の1つを見つけるアルゴリズムを示す。
さらに、我々は、完全に接続されたニューラルネットワークのために、データ分布に追加の仮定で、時間アルゴリズムがあることを証明します。
- 参考スコア(独自算出の注目度): 30.664282759625948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent theoretical works on over-parameterized neural nets have focused on
two aspects: optimization and generalization. Many existing works that study
optimization and generalization together are based on neural tangent kernel and
require a very large width. In this work, we are interested in the following
question: for a binary classification problem with two-layer mildly
over-parameterized ReLU network, can we find a point with small test error in
polynomial time? We first show that the landscape of loss functions with
explicit regularization has the following property: all local minima and
certain other points which are only stationary in certain directions achieve
small test error. We then prove that for convolutional neural nets, there is an
algorithm which finds one of these points in polynomial time (in the input
dimension and the number of data points). In addition, we prove that for a
fully connected neural net, with an additional assumption on the data
distribution, there is a polynomial time algorithm.
- Abstract(参考訳): 過パラメータニューラルネットに関する最近の理論研究は、最適化と一般化の2つの側面に焦点を当てている。
最適化と一般化を一緒に研究する多くの既存の研究は、ニューラルネットワークカーネルに基づいており、非常に大きな幅を必要とする。
本研究では,2層過度パラメータ化ReLUネットワークを用いた二層分類問題に対して,多項式時間におけるテスト誤差の小さい点を見つけることができるか?
まず、明示的な正規化を伴う損失関数のランドスケープには以下の性質があることを示した。
次に、畳み込みニューラルネットに対して、これらの点の1つを多項式時間(入力次元とデータ点数)で見つけるアルゴリズムが存在することを証明した。
さらに、完全に接続されたニューラルネットワークに対して、データ分布を仮定して多項式時間アルゴリズムが存在することを証明した。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Understanding the Difficulty of Solving Cauchy Problems with PINNs [31.98081858215356]
PINNは微分方程式の解法における古典的手法と同等の精度を達成できないことが多い。
L2$残差と初期条件誤差の和を最小化することは、真の解を保証するのに十分でないことを示す。
我々は,大域的最小値が存在しない場合,機械の精度がエラーの原因となることを示した。
論文 参考訳(メタデータ) (2024-05-04T04:22:52Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Near-Minimax Optimal Estimation With Shallow ReLU Neural Networks [19.216784367141972]
本研究では,浅層(単層)ReLUニューラルネットワークを用いた雑音データから未知の関数を推定する問題について検討する。
我々は、データ生成関数がラドン領域における二階有界変動関数の空間に属するとき、これらのニューラルネットワーク推定器の性能を定量化する。
論文 参考訳(メタデータ) (2021-09-18T05:56:06Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Vector-output ReLU Neural Network Problems are Copositive Programs:
Convex Analysis of Two Layer Networks and Polynomial-time Algorithms [29.975118690758126]
2層ベクトル無限ReLUニューラルネットワークトレーニング問題の半出力グローバル双対について述べる。
特定の問題のクラスに対して正確であることが保証されるソリューションを提供する。
論文 参考訳(メタデータ) (2020-12-24T17:03:30Z) - Random Vector Functional Link Networks for Function Approximation on Manifolds [8.535815777849786]
ランダムな入力-隠蔽層重みとバイアスを持つ単一層ニューラルネットが実際に成功していることを示す。
さらに、このランダム化されたニューラルネットワークアーキテクチャをユークリッド空間の滑らかでコンパクトな部分多様体上の近似関数に適用する。
論文 参考訳(メタデータ) (2020-07-30T23:50:44Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。