論文の概要: Learning Narrow One-Hidden-Layer ReLU Networks
- arxiv url: http://arxiv.org/abs/2304.10524v1
- Date: Thu, 20 Apr 2023 17:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 11:56:56.803941
- Title: Learning Narrow One-Hidden-Layer ReLU Networks
- Title(参考訳): Narrow One-Hidden-Layer ReLU ネットワークの学習
- Authors: Sitan Chen, Zehao Dou, Surbhi Goel, Adam R Klivans, Raghu Meka
- Abstract要約: 最初のアルゴリズムは$k$が定数であるときに成功する。
我々は、十分に近接したニューロンを一緒に崩壊させることができると主張するために、マルチスケール分析を用いる。
- 参考スコア(独自算出の注目度): 30.63086568341548
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We consider the well-studied problem of learning a linear combination of $k$
ReLU activations with respect to a Gaussian distribution on inputs in $d$
dimensions. We give the first polynomial-time algorithm that succeeds whenever
$k$ is a constant. All prior polynomial-time learners require additional
assumptions on the network, such as positive combining coefficients or the
matrix of hidden weight vectors being well-conditioned.
Our approach is based on analyzing random contractions of higher-order moment
tensors. We use a multi-scale analysis to argue that sufficiently close neurons
can be collapsed together, sidestepping the conditioning issues present in
prior work. This allows us to design an iterative procedure to discover
individual neurons.
- Abstract(参考訳): 我々は,$d$次元の入力に対するガウス分布に関して,$k$ reluアクティベーションの線形結合を学ぶためのよく検討された問題を考える。
我々は$k$が定数であるときに成功する最初の多項式時間アルゴリズムを与える。
以前の多項式時間学習者は、正の結合係数や隠れ重みベクトルの行列など、ネットワーク上の追加の仮定を必要とする。
提案手法は,高次モーメントテンソルのランダム収縮解析に基づく。
我々はマルチスケール解析を用いて、十分に近いニューロンが一緒に崩壊し、事前の作業で発生する条件づけの問題を回避することができると主張する。
これにより、個々のニューロンを発見するための反復的な手順を設計できる。
関連論文リスト
- Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Robustly Learning a Single Neuron via Sharpness [45.40045240987339]
対向ラベルノイズの存在下で1つのニューロンをL2$-lossで学習する問題について検討した。
我々は、ReLUを含む幅広いアクティベーションに対して、定数係数内で最適な$L2$-errorを近似する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-13T16:34:02Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Learning Polynomial Transformations [41.30404402331856]
ガウスの高次元二次変換を学習する問題を考察する。
我々の結果はガウス分布だけでなく、任意の不変な入力分布にまで拡張される。
また、テンソル環分解の証明可能な保証を持つ最初の分解時間アルゴリズムを与える。
論文 参考訳(メタデータ) (2022-04-08T17:59:31Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Efficient Algorithms for Learning Depth-2 Neural Networks with General
ReLU Activations [27.244958998196623]
一般のReLUアクティベーションを用いた未知の深度2フィードフォワードニューラルネットワークを学習するための時間とサンプル効率のアルゴリズムを提案する。
特に、f(x) = amathsfTsigma(WmathsfTx+b)$, ここで$x$はガウス分布から引き出され、$sigma(t) := max(t,0)$はReLU活性化である。
論文 参考訳(メタデータ) (2021-07-21T17:06:03Z) - Recurrently Predicting Hypergraphs [30.092688729343678]
問題は、$n$要素の集合に対して$mathcalO(2n)$でスケーリング可能なマルチウェイ関係(ハイパーエッジ)の数から生じる。
そこで本研究では,提案手法の初期推定を反復的に精算することにより,入射行列を予測する再帰型ハイパーグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-26T01:12:41Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Algorithms and SQ Lower Bounds for PAC Learning One-Hidden-Layer ReLU
Networks [48.32532049640782]
ガウス境界の下で, 1層ReLUネットワークを$k$の隠れ単位で学習する問題をmathbbRd$で研究する。
正の係数の場合、この学習問題の初回アルゴリズムを$k$から$tildeOOmega(sqrtlog d)$まで与える。
論文 参考訳(メタデータ) (2020-06-22T17:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。