論文の概要: Minimum Width for Universal Approximation
- arxiv url: http://arxiv.org/abs/2006.08859v1
- Date: Tue, 16 Jun 2020 01:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 19:11:27.169911
- Title: Minimum Width for Universal Approximation
- Title(参考訳): ユニバーサル近似のための最小幅
- Authors: Sejun Park, Chulhee Yun, Jaeho Lee, Jinwoo Shin
- Abstract要約: 我々は、$Lp$関数の普遍近似に必要な最小幅がちょうど$maxd_x+1,d_y$であることを証明する。
また、同じ結論がReLUと一様近似に当てはまるのではなく、追加のしきい値アクティベーション関数で成り立つことを証明している。
- 参考スコア(独自算出の注目度): 91.02689252671291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The universal approximation property of width-bounded networks has been
studied as a dual of classical universal approximation results on depth-bounded
networks. However, the critical width enabling the universal approximation has
not been exactly characterized in terms of the input dimension $d_x$ and the
output dimension $d_y$. In this work, we provide the first definitive result in
this direction for networks using the ReLU activation functions: The minimum
width required for the universal approximation of the $L^p$ functions is
exactly $\max\{d_x+1,d_y\}$. We also prove that the same conclusion does not
hold for the uniform approximation with ReLU, but does hold with an additional
threshold activation function. Our proof technique can be also used to derive a
tighter upper bound on the minimum width required for the universal
approximation using networks with general activation functions.
- Abstract(参考訳): 幅境界ネットワークの普遍近似特性は、深さ境界ネットワーク上の古典的普遍近似結果の双対として研究されている。
しかし、普遍近似を可能にする臨界幅は、入力次元$d_x$と出力次元$d_y$で明確に特徴づけられていない。
本稿では、ReLUアクティベーション関数を用いたネットワークに対するこの方向の最初の決定的な結果を与える:$L^p$関数の普遍近似に必要な最小幅は、正確に$\max\{d_x+1,d_y\}$である。
また、同じ結論が ReLU との等式近似に当てはまるのではなく、追加のしきい値アクティベーション関数で成り立つことを証明している。
また, 一般活性化関数を持つネットワークを用いて, 普遍近似に必要な最小幅に, より厳密な上限を導出することができる。
関連論文リスト
- Minimum width for universal approximation using ReLU networks on compact
domain [8.839687029212673]
活性化関数が ReLU-like (ReLU, GELU, Softplus) であれば、$Lp$関数の近似の最小幅は正確に$maxd_x,d_y,2$であることを示す。
ReLUネットワークの既知の結果と比較すると、$w_min=maxd_x+1,d_y$ ドメインが $smashmathbb Rd_x$ の場合、まず、コンパクトなドメインでの近似はそれよりも小さい幅を必要とすることを示す。
論文 参考訳(メタデータ) (2023-09-19T08:04:48Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Universal approximation with complex-valued deep narrow neural networks [0.0]
より狭い複素数値ネットワークは、その活性化関数が正則でもなく、反正則でもなく、$mathbbR$-affineでもない場合に限り普遍であることを示す。
しかしながら、許容活性化関数の豊富な部分クラスに対して、幅が$n+m+4$ sufficesであることを証明する。
論文 参考訳(メタデータ) (2023-05-26T13:22:14Z) - Minimal Width for Universal Property of Deep RNN [6.744583770038476]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャルデータを扱うために広く使われているディープラーニングネットワークである。
我々は, 深部狭いRNNの普遍性を証明し, 最大幅の上限がデータ長に依存しないことを示す。
論文 参考訳(メタデータ) (2022-11-25T02:43:54Z) - Achieve the Minimum Width of Neural Networks for Universal Approximation [1.52292571922932]
ニューラルネットワークの普遍近似特性(UAP)について,最小幅の$w_min$について検討する。
特に、$Lp$-UAPの臨界幅$w*_min$は、漏洩ReLUネットワークによって達成できる。
論文 参考訳(メタデータ) (2022-09-23T04:03:50Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Nearly Minimax Optimal Regret for Learning Infinite-horizon
Average-reward MDPs with Linear Function Approximation [95.80683238546499]
本論文では, 線形関数近似を用いた UCRL2 アルゴリズムの拡張として見ることのできる新しいアルゴリズム UCRL2-VTR を提案する。
Bernstein 型ボーナス付き UCRL2-VTR は $tildeO(dsqrtDT)$ の後悔を達成でき、$d$ は特徴写像の次元である。
また、一致した下界$tildeOmega(dsqrtDT)$を証明し、提案したUCRL2-VTRが対数係数の最小値であることを示す。
論文 参考訳(メタデータ) (2021-02-15T02:08:39Z) - Quantitative Rates and Fundamental Obstructions to Non-Euclidean
Universal Approximation with Deep Narrow Feed-Forward Networks [3.8073142980733]
我々は,「深い幾何学的フィードフォワードニューラルネットワーク」に必要な狭い層数を定量化する。
グローバルとローカルの両方のユニバーサル近似保証は、null-homotopic関数を近似する場合にのみ一致することが分かりました。
論文 参考訳(メタデータ) (2021-01-13T23:29:40Z) - Interval Universal Approximation for Neural Networks [47.767793120249095]
区間普遍近似(IUA)定理を導入する。
IUAは、ニューラルネットワークが何十年にもわたって知られているような、あらゆる連続関数の$f$を近似できることを示している。
本稿では,精度の高い区間解析が可能なニューラルネットワークを構築する際の計算複雑性について検討する。
論文 参考訳(メタデータ) (2020-07-12T20:43:56Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。