論文の概要: Minimum width for universal approximation using ReLU networks on compact
domain
- arxiv url: http://arxiv.org/abs/2309.10402v1
- Date: Tue, 19 Sep 2023 08:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:46:32.046504
- Title: Minimum width for universal approximation using ReLU networks on compact
domain
- Title(参考訳): コンパクト領域上のreluネットワークを用いたユニバーサル近似の最小幅
- Authors: Namjun Kim, Chanho Min, Sejun Park
- Abstract要約: 活性化関数がReLU-Likeであれば、$Lp$関数の普遍近似の最小幅は正確に$maxd_x,d_y,2$であることを示す。
最初の結果とともに、一般活性化関数に対する$Lp$と一様近似と入出力次元との二分法を示す。
- 参考スコア(独自算出の注目度): 8.839687029212673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The universal approximation property of width-bounded networks has been
studied as a dual of the classical universal approximation theorem for
depth-bounded ones. There were several attempts to characterize the minimum
width $w_{\min}$ enabling the universal approximation property; however, only a
few of them found the exact values. In this work, we show that the minimum
width for the universal approximation of $L^p$ functions from $[0,1]^{d_x}$ to
$\mathbb R^{d_y}$ is exactly $\max\{d_x,d_y,2\}$ if an activation function is
ReLU-Like (e.g., ReLU, GELU, Softplus). Compared to the known result
$w_{\min}=\max\{d_x+1,d_y\}$ when the domain is ${\mathbb R^{d_x}}$, our result
first shows that approximation on a compact domain requires smaller width than
on ${\mathbb R^{d_x}}$. We next prove a lower bound on $w_{\min}$ for uniform
approximation using general activation functions including ReLU: $w_{\min}\ge
d_y+1$ if $d_x<d_y\le2d_x$. Together with our first result, this shows a
dichotomy between $L^p$ and uniform approximations for general activation
functions and input/output dimensions.
- Abstract(参考訳): 幅有界ネットワークの普遍近似特性は、深さ有界ネットワークに対する古典的普遍近似定理の双対として研究されている。
普遍近似特性を許容する最小幅$w_{\min}$を特徴づけようとする試みはいくつかあったが、正確な値を発見したのはわずかであった。
本研究では、活性化関数がReLU-Likeであれば、$[0,1]^{d_x}$から$\mathbb R^{d_y}$への普遍近似の最小幅が正確に$\max\{d_x,d_y,2\}$であることを示す(例えば、ReLU, GELU, Softplus)。
既知の結果である $w_{\min}=\max\{d_x+1,d_y\}$ に対して、ドメインが ${\mathbb R^{d_x}}$ の場合、まず、コンパクトなドメインでの近似は ${\mathbb R^{d_x}}$ よりも小さい幅を必要とすることを示す。
次に、ReLUを含む一般的なアクティベーション関数を用いた一様近似に対して$w_{\min}$の低い境界を証明します。
最初の結果とともに、一般活性化関数に対する$L^p$と一様近似と入出力次元との二分法を示す。
関連論文リスト
- Minimum Width of Leaky-ReLU Neural Networks for Uniform Universal
Approximation [10.249623880822055]
本稿では,関数クラス $C(K,mathbbRd_y)$ に対する統一 UAP について検討する。
リーク-ReLU NNの正確な最小幅は$w_min=max(d_x,d_y)+Delta (d_x,d_y)$である。
論文 参考訳(メタデータ) (2023-05-29T06:51:16Z) - Achieve the Minimum Width of Neural Networks for Universal Approximation [1.52292571922932]
ニューラルネットワークの普遍近似特性(UAP)について,最小幅の$w_min$について検討する。
特に、$Lp$-UAPの臨界幅$w*_min$は、漏洩ReLUネットワークによって達成できる。
論文 参考訳(メタデータ) (2022-09-23T04:03:50Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Active Sampling for Linear Regression Beyond the $\ell_2$ Norm [70.49273459706546]
対象ベクトルの少数のエントリのみを問合せすることを目的とした線形回帰のためのアクティブサンプリングアルゴリズムについて検討する。
我々はこの$d$への依存が対数的要因まで最適であることを示す。
また、損失関数に対して最初の全感度上界$O(dmax1,p/2log2 n)$を提供し、最大で$p$成長する。
論文 参考訳(メタデータ) (2021-11-09T00:20:01Z) - On minimal representations of shallow ReLU networks [0.0]
f$の最小表現は$n$、$n+1$または$n+2$のどちらかを使用する。
特に入力層が一次元の場合、最小表現は常に少なくとも$n+1$のニューロンで使用されるが、高次元設定では$n+2$のニューロンを必要とする関数が存在する。
論文 参考訳(メタデータ) (2021-08-12T10:22:24Z) - Optimal Approximation Rate of ReLU Networks in terms of Width and Depth [5.37133760455631]
本稿では,深部フィードフォワードニューラルネットワークの幅と深さの近似力に着目した。
幅$mathcalObig(maxdlfloor N1/drfloor,, N+2big)$と深さ$mathcalO(L)$のReLUネットワークは、近似レート$mathcalObig(lambdasqrtd (N2L2ln)で$[0,1]d$のH"古い連続関数を近似できる。
論文 参考訳(メタデータ) (2021-02-28T13:15:55Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Mixture Markov
Decision Processes [91.38793800392108]
本稿では,マルコフ決定過程(MDP)の遷移確率核が線形混合モデルである線形関数近似による強化学習について検討する。
上記の線形混合 MDP に対して$textUCRL-VTR+$ という線形関数近似を用いた計算効率の良い新しいアルゴリズムを提案する。
我々の知る限り、これらは線形関数近似を持つRLのための計算効率が良く、ほぼ最小のアルゴリズムである。
論文 参考訳(メタデータ) (2020-12-15T18:56:46Z) - Deep Network with Approximation Error Being Reciprocal of Width to Power
of Square Root of Depth [4.468952886990851]
超近似パワーを持つ新しいネットワークが導入された。
このネットワークは、各ニューロン内のFloor(lfloor xrfloor$)またはReLU(max0,x$)アクティベーション関数で構築されている。
論文 参考訳(メタデータ) (2020-06-22T13:27:33Z) - Minimum Width for Universal Approximation [91.02689252671291]
我々は、$Lp$関数の普遍近似に必要な最小幅がちょうど$maxd_x+1,d_y$であることを証明する。
また、同じ結論がReLUと一様近似に当てはまるのではなく、追加のしきい値アクティベーション関数で成り立つことを証明している。
論文 参考訳(メタデータ) (2020-06-16T01:24:21Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。