論文の概要: Embedding Inequalities for Barron-type Spaces
- arxiv url: http://arxiv.org/abs/2305.19082v3
- Date: Wed, 27 Dec 2023 08:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 23:01:51.064701
- Title: Embedding Inequalities for Barron-type Spaces
- Title(参考訳): バロン型空間に対する埋め込み不等式
- Authors: Lei Wu
- Abstract要約: 定数は入力次元$d$に依存しないことを示し、埋め込みが高次元で有効であることを示唆する。
また、下界と上界の両方がきつくなっていることも示している。
- 参考スコア(独自算出の注目度): 4.184052796218818
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An important problem in machine learning theory is to understand the
approximation and generalization properties of two-layer neural networks in
high dimensions. To this end, researchers have introduced the Barron space
$\mathcal{B}_s(\Omega)$ and the spectral Barron space $\mathcal{F}_s(\Omega)$,
where the index $s\in [0,\infty)$ indicates the smoothness of functions within
these spaces and $\Omega\subset\mathbb{R}^d$ denotes the input domain. However,
the precise relationship between the two types of Barron spaces remains
unclear. In this paper, we establish a continuous embedding between them as
implied by the following inequality: for any $\delta\in (0,1), s\in
\mathbb{N}^{+}$ and $f: \Omega \mapsto\mathbb{R}$, it holds that \[ \delta
\|f\|_{\mathcal{F}_{s-\delta}(\Omega)}\lesssim_s
\|f\|_{\mathcal{B}_s(\Omega)}\lesssim_s \|f\|_{\mathcal{F}_{s+1}(\Omega)}. \]
Importantly, the constants do not depend on the input dimension $d$,
suggesting that the embedding is effective in high dimensions. Moreover, we
also show that the lower and upper bound are both tight.
- Abstract(参考訳): 機械学習理論における重要な問題は、高次元の2層ニューラルネットワークの近似と一般化特性を理解することである。
この目的のために、研究者はバロン空間 $\mathcal{B}_s(\Omega)$ とスペクトルバロン空間 $\mathcal{F}_s(\Omega)$ を導入し、インデックス $s\in [0,\infty)$ はこれらの空間内の函数の滑らかさを示し、$\Omega\subset\mathbb{R}^d$ は入力領域を表す。
しかし、2種類のバロン空間の間の正確な関係はいまだ不明である。
任意の$\delta\in (0,1), s\in \mathbb{n}^{+}$ および $f: \omega \mapsto\mathbb{r}$ に対して、 \[ \delta \|f\|_{\mathcal{f}_{s-\delta}(\omega)}\lesssim_s \|f\|_{\mathcal{b}_s(\omega)}\lesssim_s \|f\|_{\mathcal{b}_s(\omega)}\lesssim_s \|f\|_{\mathcal{f}_{s+1}(\omega)} が成立する。
重要なことは、定数は入力次元$d$に依存せず、埋め込みが高次元で有効であることを示唆している。
また,下限と上限はともにタイトであることが判明した。
関連論文リスト
- The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Noncompact uniform universal approximation [0.0]
普遍近似定理は、(コンパクトでない)入力空間 $mathbbRn$ 上の一様収束に一般化される。
無限大で消えるすべての連続関数は、ニューラルネットワークによって一様に近似することができる。
論文 参考訳(メタデータ) (2023-08-07T08:54:21Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - On Outer Bi-Lipschitz Extensions of Linear Johnson-Lindenstrauss
Embeddings of Low-Dimensional Submanifolds of $\mathbb{R}^N$ [0.24366811507669117]
$mathcalM$ を $mathbbRN$ のコンパクト $d$-次元部分多様体とし、リーチ $tau$ とボリューム $V_mathcal M$ とする。
非線形関数 $f: mathbbRN rightarrow mathbbRmm が存在し、$m leq C left(d / epsilon2right) log left(fracsqrt[d]V_math が存在することを証明します。
論文 参考訳(メタデータ) (2022-06-07T15:10:46Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Linear Bandits on Uniformly Convex Sets [88.3673525964507]
線形バンディットアルゴリズムはコンパクト凸作用集合上の $tildemathcalo(nsqrtt)$ pseudo-regret 境界を与える。
2種類の構造的仮定は、より良い擬似回帰境界をもたらす。
論文 参考訳(メタデータ) (2021-03-10T07:33:03Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。