論文の概要: On best approximation by multivariate ridge functions with applications to generalized translation networks
- arxiv url: http://arxiv.org/abs/2412.08453v1
- Date: Wed, 11 Dec 2024 15:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:27.761295
- Title: On best approximation by multivariate ridge functions with applications to generalized translation networks
- Title(参考訳): 多変量リッジ関数による最適近似と一般化翻訳ネットワークへの応用について
- Authors: Paul Geuchen, Palina Salanevich, Olov Schavemaker, Felix Voigtlaender,
- Abstract要約: 近似の順序は$n-r/(d-ell)$として振る舞うが、$r$はソボレフ関数の正則性である。
我々の下限は、正則$r$の$L1$のときにも成り立つが、上限は$Lp$-Sobolevの$Lp$の$Lq p leq infty$の近似に適用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We prove sharp upper and lower bounds for the approximation of Sobolev functions by sums of multivariate ridge functions, i.e., functions of the form $\mathbb{R}^d \ni x \mapsto \sum_{k=1}^n h_k(A_k x) \in \mathbb{R}$ with $h_k : \mathbb{R}^\ell \to \mathbb{R}$ and $A_k \in \mathbb{R}^{\ell \times d}$. We show that the order of approximation asymptotically behaves as $n^{-r/(d-\ell)}$, where $r$ is the regularity of the Sobolev functions to be approximated. Our lower bound even holds when approximating $L^\infty$-Sobolev functions of regularity $r$ with error measured in $L^1$, while our upper bound applies to the approximation of $L^p$-Sobolev functions in $L^p$ for any $1 \leq p \leq \infty$. These bounds generalize well-known results about the approximation properties of univariate ridge functions to the multivariate case. Moreover, we use these bounds to obtain sharp asymptotic bounds for the approximation of Sobolev functions using generalized translation networks and complex-valued neural networks.
- Abstract(参考訳): 多変数リッジ関数の和、すなわち $\mathbb{R}^d \ni x \mapsto \sum_{k=1}^n h_k(A_k x) \in \mathbb{R}$ with $h_k : \mathbb{R}^\ell \to \mathbb{R}$ and $A_k \in \mathbb{R}^{\ell \times d}$ の形の函数により、ソボレフ函数の近似に対する鋭い上界と下界を証明している。
近似の順序は漸近的に$n^{-r/(d-\ell)}$として振る舞う。
我々の下限は、正則$r$の$L^\infty$-sobolev関数を$L^1$の誤差で近似するときにさえ成り立つが、上限は、任意の$ \leq p \leq \infty$に対して$L^p$-Sobolev関数の$L^p$の近似に適用される。
これらの境界は、多変量体の場合に対する単変数リッジ関数の近似特性に関するよく知られた結果を一般化する。
さらに、これらの境界を用いて、一般化翻訳ネットワークと複素数値ニューラルネットワークを用いて、ソボレフ関数の近似の鋭い漸近境界を求める。
関連論文リスト
- Uniform $\mathcal{C}^k$ Approximation of $G$-Invariant and Antisymmetric
Functions, Embedding Dimensions, and Polynomial Representations [0.0]
必要な埋め込み次元は、対象関数の正則性、所望の近似の精度、および$k$に依存しないことを示す。
また、$K$の上と下の境界も提供し、$K$が対象関数の正則性、所望の近似精度、および$k$とは独立であることを示す。
論文 参考訳(メタデータ) (2024-03-02T23:19:10Z) - Noncompact uniform universal approximation [0.0]
普遍近似定理は、(コンパクトでない)入力空間 $mathbbRn$ 上の一様収束に一般化される。
無限大で消えるすべての連続関数は、ニューラルネットワークによって一様に近似することができる。
論文 参考訳(メタデータ) (2023-08-07T08:54:21Z) - Tractability of approximation by general shallow networks [0.0]
xmapsto sum_k=1n a_kG(x, y_k)$, $ xinmathbbX$, by $G$-networks of the form $ xmapsto sum_k=1n a_kG(x, y_k)$。
独立次元境界を$n$で近似の度合いで取得し、関連する定数もすべて次元に依存する。
論文 参考訳(メタデータ) (2023-08-07T00:14:46Z) - Shallow neural network representation of polynomials [91.3755431537592]
d+1+sum_r=2Rbinomr+d-1d-1[binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1]
論文 参考訳(メタデータ) (2022-08-17T08:14:52Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Fast Convergence of Langevin Dynamics on Manifold: Geodesics meet
Log-Sobolev [31.57723436316983]
ある関数に対して高次元分布行列からサンプリングする1つのアプローチはランゲヴィンアルゴリズムである。
私たちの仕事は[53]の結果を一般化します。$mathRn$ は $bbRn$ ではなく af$ で定義されます。
論文 参考訳(メタデータ) (2020-10-11T15:02:12Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。