論文の概要: Generalization Analysis for Classification on Korobov Space
- arxiv url: http://arxiv.org/abs/2509.22748v1
- Date: Fri, 26 Sep 2025 06:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.848977
- Title: Generalization Analysis for Classification on Korobov Space
- Title(参考訳): コロボフ空間上の分類の一般化解析
- Authors: Yuqing Liu,
- Abstract要約: 凸$eta$-normの損失関数に従って,過度な誤分類誤差の学習率を導出する。
我々は、浅いReLUニューラルネットワークにより、コロボフ空間$X2, p([-1,1]d)$, $1leq p leq infty$から関数の近似の$L_p$のレートを提案する。
- 参考スコア(独自算出の注目度): 2.5288763663662883
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, the classification algorithm arising from Tikhonov regularization is discussed. The main intention is to derive learning rates for the excess misclassification error according to the convex $\eta$-norm loss function $\phi(v)=(1 - v)_{+}^{\eta}$, $\eta\geq1$. Following the argument, the estimation of error under Tsybakov noise conditions is studied. In addition, we propose the rate of $L_p$ approximation of functions from Korobov space $X^{2, p}([-1,1]^{d})$, $1\leq p \leq \infty$, by the shallow ReLU neural network. This result consists of a novel Fourier analysis
- Abstract(参考訳): 本稿では,Tikhonov正則化による分類アルゴリズムについて述べる。
主な目的は、凸 $\eta$-norm 損失関数 $\phi(v)=(1 - v)_{+}^{\eta}$, $\eta\geq1$ に従って過剰な誤分類誤差の学習率を導出することである。
議論の後、ツィバコフ雑音条件下での誤差の推定について検討した。
さらに、浅いReLUニューラルネットワークにより、コロボフ空間$X^{2, p}([-1,1]^{d})$, $1\leq p \leq \infty$ の関数の近似レートを$L_p$ として提案する。
この結果は、新しいフーリエ解析から成り立っている。
関連論文リスト
- Some Super-approximation Rates of ReLU Neural Networks for Korobov Functions [3.2228025627337864]
ほぼ最適な超近似誤差境界を$L_p$ノルムで2m$、目標関数に対して$WLUp$ノルムで2m-2$、各方向で$L_p$混合の$m$とする。
その結果,ニューラルネットワークの表現性は次元の呪いの影響を受けないことが明らかとなった。
論文 参考訳(メタデータ) (2025-07-14T14:48:47Z) - Optimal Convergence Rates of Deep Neural Network Classifiers [25.56187933090708]
Tsybakovノイズ条件下での2値分類問題を$[0,1]d$で検討する。
分類器の過大な0-1リスクに対する最適収束率は$$ left ( frac1n right)fracbetacdot (1wedgebeta)qfracd_*s+1+ (1+frac1s+1)cdotbetacdot (1wedgebeta)q;
論文 参考訳(メタデータ) (2025-06-17T18:13:09Z) - Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Adam-like Algorithm with Smooth Clipping Attains Global Minima: Analysis
Based on Ergodicity of Functional SDEs [0.0]
我々は,グローバル化された非-1損失関数を切断したAdam型アルゴリズムが正規化された非-1エラー形式を最小化することを示す。
また、スムーズな群のエルゴード理論を適用して、逆温度と時間を学ぶためのアプローチを研究する。
論文 参考訳(メタデータ) (2023-11-29T14:38:59Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - Optimal Spectral Recovery of a Planted Vector in a Subspace [80.02218763267992]
我々は、$ell_4$ノルムが同じ$ell$ノルムを持つガウスベクトルと異なるプラントベクトル$v$の効率的な推定と検出について研究する。
規則$n rho gg sqrtN$ では、大クラスのスペクトル法(そしてより一般的には、入力の低次法)は、植込みベクトルの検出に失敗する。
論文 参考訳(メタデータ) (2021-05-31T16:10:49Z) - Provable Robustness of Adversarial Training for Learning Halfspaces with
Noise [95.84614821570283]
ラベル雑音の存在下での敵対的ロバストなハーフスペースの特性を分析する。
我々の知る限りでは、これは敵の訓練がノイズの分類子を与えることを示す最初の研究である。
論文 参考訳(メタデータ) (2021-04-19T16:35:38Z) - Convex regularization in statistical inverse learning problems [1.7778609937758323]
一般凸と$p$-均一なペナルティ関数によるチコノフ正則化を考える。
我々は,Besov法則の厳格な罰則を導出し,X線トモグラフィーの文脈における観測値との対応性を数値的に示す。
論文 参考訳(メタデータ) (2021-02-18T18:12:08Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Agnostic Learning of Halfspaces with Gradient Descent via Soft Margins [92.7662890047311]
勾配降下は、分類誤差$tilde O(mathsfOPT1/2) + varepsilon$ in $mathrmpoly(d,1/varepsilon)$ time and sample complexity.
論文 参考訳(メタデータ) (2020-10-01T16:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。