論文の概要: Approximating smooth functions by deep neural networks with sigmoid
activation function
- arxiv url: http://arxiv.org/abs/2010.04596v1
- Date: Thu, 8 Oct 2020 07:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 13:15:51.750569
- Title: Approximating smooth functions by deep neural networks with sigmoid
activation function
- Title(参考訳): シグモイド活性化機能を有する深層ニューラルネットワークによる滑らかな機能近似
- Authors: Sophie Langer
- Abstract要約: 我々は,シグモイド活性化機能を持つディープニューラルネットワーク(DNN)のパワーについて検討した。
固定深度と幅が$Md$で近似レートが$M-2p$であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the power of deep neural networks (DNNs) with sigmoid activation
function. Recently, it was shown that DNNs approximate any $d$-dimensional,
smooth function on a compact set with a rate of order $W^{-p/d}$, where $W$ is
the number of nonzero weights in the network and $p$ is the smoothness of the
function. Unfortunately, these rates only hold for a special class of sparsely
connected DNNs. We ask ourselves if we can show the same approximation rate for
a simpler and more general class, i.e., DNNs which are only defined by its
width and depth. In this article we show that DNNs with fixed depth and a width
of order $M^d$ achieve an approximation rate of $M^{-2p}$. As a conclusion we
quantitatively characterize the approximation power of DNNs in terms of the
overall weights $W_0$ in the network and show an approximation rate of
$W_0^{-p/d}$. This more general result finally helps us to understand which
network topology guarantees a special target accuracy.
- Abstract(参考訳): 我々は,シグモイド活性化機能を持つディープニューラルネットワーク(DNN)のパワーについて検討した。
最近では、DNNが任意の$d$次元の滑らかな函数を階数$W^{-p/d}$で近似することが示され、$W$はネットワーク内のゼロでない重みの数であり、$p$は関数の滑らかさである。
残念ながら、これらのレートは、疎結合なDNNの特別なクラスに限られる。
我々は、より単純で一般的なクラス、すなわち、その幅と深さによってのみ定義されるDNNに対して、同じ近似率を示すことができるかどうかを自問する。
本稿では, 一定の深さと順序幅が$M^d$のDNNが, 近似速度が$M^{-2p}$となることを示す。
その結果、DNNの近似パワーをネットワーク全体の重量$W_0$で定量的に評価し、近似レート$W_0^{-p/d}$を示す。
このより一般的な結果は、どのネットワークトポロジが特定のターゲット精度を保証するかを理解するのに役立ちます。
関連論文リスト
- Deep Neural Networks: Multi-Classification and Universal Approximation [0.0]
我々は,幅2ドル,深さ2N+4M-1$のReLUディープニューラルネットワークが,$N$要素からなる任意のデータセットに対して有限標本記憶を達成できることを実証した。
また、$W1,p$関数を近似するための深さ推定と$Lp(Omega;mathbbRm)$ for $mgeq1$を近似するための幅推定も提供する。
論文 参考訳(メタデータ) (2024-09-10T14:31:21Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Rates of Approximation by ReLU Shallow Neural Networks [8.22379888383833]
隠れたニューロンが$m$のReLU浅部ニューラルネットワークは、H"古い空間からの関数を均一に近似できることを示す。
そのようなレートは$O(m-fracrd)$に非常に近いが、$fracd+2d+4d+4$は、$d$が大きければ1ドルに近いという意味では$O(m-fracrd)$である。
論文 参考訳(メタデータ) (2023-07-24T00:16:50Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Achieve the Minimum Width of Neural Networks for Universal Approximation [1.52292571922932]
ニューラルネットワークの普遍近似特性(UAP)について,最小幅の$w_min$について検討する。
特に、$Lp$-UAPの臨界幅$w*_min$は、漏洩ReLUネットワークによって達成できる。
論文 参考訳(メタデータ) (2022-09-23T04:03:50Z) - Nonclosedness of Sets of Neural Networks in Sobolev Spaces [0.0]
実現されたニューラルネットワークは順序で閉じていないことを示す--(m-1)$ソボレフ空間$Wm-1,p$ for $p in [1,infty]$。
実解析的アクティベーション関数に対して、実現されたニューラルネットワークの集合は、mathbbN$の任意の$kに対して$Wk,p$で閉じていないことを示す。
論文 参考訳(メタデータ) (2020-07-23T00:57:25Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - $\Pi-$nets: Deep Polynomial Neural Networks [86.36557534288535]
$Pi$-Netsは、出力が入力の高次であるニューラルネットワークである。
我々は、$Pi$-Netsが標準のDCNNよりも優れた表現能力を持っていることを実証的に実証した。
近年のStyleGANのような生成モデルが,先行モデルに改良を加えた理由を解明する。
論文 参考訳(メタデータ) (2020-03-08T18:48:43Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。