論文の概要: Depth and Feature Learning are Provably Beneficial for Neural Network
Discriminators
- arxiv url: http://arxiv.org/abs/2112.13867v1
- Date: Mon, 27 Dec 2021 19:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:47:51.339287
- Title: Depth and Feature Learning are Provably Beneficial for Neural Network
Discriminators
- Title(参考訳): ニューラルネットワーク識別器の深度と特徴学習はおそらく有用である
- Authors: Carles Domingo-Enrich
- Abstract要約: 我々は,浅い識別器では識別できない分布を,深いGAN識別器が識別可能であることを示す。
これは、特徴学習が差別者にとって有益であることを確認する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct pairs of distributions $\mu_d, \nu_d$ on $\mathbb{R}^d$ such
that the quantity $|\mathbb{E}_{x \sim \mu_d} [F(x)] - \mathbb{E}_{x \sim
\nu_d} [F(x)]|$ decreases as $\Omega(1/d^2)$ for some three-layer ReLU network
$F$ with polynomial width and weights, while declining exponentially in $d$ if
$F$ is any two-layer network with polynomial weights. This shows that deep GAN
discriminators are able to distinguish distributions that shallow
discriminators cannot. Analogously, we build pairs of distributions $\mu_d,
\nu_d$ on $\mathbb{R}^d$ such that $|\mathbb{E}_{x \sim \mu_d} [F(x)] -
\mathbb{E}_{x \sim \nu_d} [F(x)]|$ decreases as $\Omega(1/(d\log d))$ for
two-layer ReLU networks with polynomial weights, while declining exponentially
for bounded-norm functions in the associated RKHS. This confirms that feature
learning is beneficial for discriminators. Our bounds are based on Fourier
transforms.
- Abstract(参考訳): 分布の対を$\mu_d, \nu_d$ on $\mathbb{R}^d$とすると、ある3層ReLUネットワークに対して$\Omega(1/d^2)$として$|\mathbb{E}_{x \sim \mu_d} [F(x)] - \mathbb{E}_{x \sim \nu_d} [F(x)]|$が$\Omega(1/d^2)$として減少する。
このことは、深いGAN差別者は浅い差別者ができない分布を区別できることを示している。
類似して、$\mu_d, \nu_d$ on $\mathbb{R}^d$ {\displaystyle $|\mathbb{E}_{x \sim \mu_d} [F(x)]\mathbb{E}_{x \sim \nu_d} [F(x)]|$は多項式重みを持つ2層ReLUネットワークに対して$\Omega(1/(d\log d))$として減少するが、関連するRKHSの有界ノルム関数に対して指数関数的に減少する。
これは、特徴学習が差別者にとって有益であることを確認する。
我々の境界はフーリエ変換に基づいている。
関連論文リスト
- The Differential and Boomerang Properties of a Class of Binomials [28.489574654566677]
F_2,u(x)=x2big (1+ueta(x)big)$ over $mathbbF_q$。
我々は citebudaghyan 2024arithmetization において、$F_2,u$ が APN 函数であるような無限に多くの$q$ と $u$ が存在するという予想を否定する。
論文 参考訳(メタデータ) (2024-09-21T23:33:00Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Neural Networks Efficiently Learn Low-Dimensional Representations with
SGD [22.703825902761405]
SGDで訓練されたReLU NNは、主方向を回復することで、$y=f(langleboldsymbolu,boldsymbolxrangle) + epsilon$という形の単一インデックスターゲットを学習できることを示す。
また、SGDによる近似低ランク構造を用いて、NNに対して圧縮保証を提供する。
論文 参考訳(メタデータ) (2022-09-29T15:29:10Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Deep Learning in High Dimension: Neural Network Approximation of
Analytic Functions in $L^2(\mathbb{R}^d,\gamma_d)$ [0.0]
解析関数 $f:mathbbRdtomathbbR$ の式率を $L2(mathbbRd,gamma_d)$ のノルムで証明する。
特に、整数 $kgeq 2$ に対する ReLU と ReLU$k$ のアクティベーションを考える。
対数ガウス確率場入力による楕円型PDEの応答面に対する深いReLU-NNの表現速度境界を証明した。
論文 参考訳(メタデータ) (2021-11-13T09:54:32Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。