論文の概要: A Refinement of Vapnik--Chervonenkis' Theorem
- arxiv url: http://arxiv.org/abs/2601.16411v1
- Date: Fri, 23 Jan 2026 02:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.515356
- Title: A Refinement of Vapnik--Chervonenkis' Theorem
- Title(参考訳): ヴァプニクの再構成-チェルヴォネンキスの理論
- Authors: A. Iosevich, A. Vagharshakyan, E. Wyman,
- Abstract要約: Vapnik--Chervonenkisの定理は機械学習のセミナルな結果である。
古典的議論の確率的要素を再考する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vapnik--Chervonenkis' theorem is a seminal result in machine learning. It establishes sufficient conditions for empirical probabilities to converge to theoretical probabilities, uniformly over families of events. It also provides an estimate for the rate of such uniform convergence. We revisit the probabilistic component of the classical argument. Instead of applying Hoeffding's inequality at the final step, we use a normal approximation with explicit Berry--Esseen error control. This yields a moderate-deviation sharpening of the usual VC estimate, with an additional factor of order $(\varepsilon\sqrt{n})^{-1}$ in the leading exponential term when $\varepsilon\sqrt{n}$ is large.
- Abstract(参考訳): Vapnik-Chervonenkis の定理は、機械学習のセミナルな結果である。これは、経験的確率が事象の族に均一に収束する十分な条件を確立する。また、そのような一様収束率の見積もりも提供する。古典的議論の確率的成分を再考する。最後のステップで Hoeffding の不等式を適用する代わりに、明示的な Berry-Esseen 誤差制御による正規近似を用いる。
これにより、通常のVCの推定値が適度に小さくなり、$(\varepsilon\sqrt{n})^{-1}$の次数$(\varepsilon\sqrt{n})^{-1}$は、$\varepsilon\sqrt{n}$が大きければ、先行指数項の次数$(\varepsilon\sqrt{n})^{-1}$となる。
関連論文リスト
- Complexity Analysis of Normalizing Constant Estimation: from Jarzynski Equality to Annealed Importance Sampling and beyond [40.79840141270367]
非正規化確率密度 $piproptomathrme-V$ が与えられたとき、正規化定数 $Z=int_mathbbRdmathrme-V(x)mathrmdx$ または自由エネルギー $F=-log Z$ はベイズ統計学、統計力学、機械学習において重要な問題である。
本稿では,逆拡散サンプリングに基づく新しいアルゴリズムを提案し,その複雑さを解析するためのフレームワークを構築し,マルチモーダリティに対処する際の効率を実証的に実証する。
論文 参考訳(メタデータ) (2025-02-07T00:05:28Z) - A Unified Analysis for Finite Weight Averaging [50.75116992029417]
Gradient Descent(SGD)の平均イテレーションは、SWA(Weight Averaging)、EMA(Exponential moving Average)、LAWA(Latest Weight Averaging)といったディープラーニングモデルのトレーニングにおいて、経験的な成功を収めている。
本稿では、LAWAを有限重み平均化(FWA)として一般化し、最適化と一般化の観点からSGDと比較して、それらの利点を説明する。
論文 参考訳(メタデータ) (2024-11-20T10:08:22Z) - Beyond likelihood ratio bias: Nested multi-time-scale stochastic approximation for likelihood-free parameter estimation [49.78792404811239]
確率分析形式が不明なシミュレーションベースモデルにおける推論について検討する。
我々は、スコアを同時に追跡し、パラメータ更新を駆動する比率のないネスト型マルチタイムスケール近似(SA)手法を用いる。
我々のアルゴリズムは、オリジナルのバイアス$Obig(sqrtfrac1Nbig)$を排除し、収束率を$Obig(beta_k+sqrtfracalpha_kNbig)$から加速できることを示す。
論文 参考訳(メタデータ) (2024-11-20T02:46:15Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Robust Linear Predictions: Analyses of Uniform Concentration, Fast Rates
and Model Misspecification [16.0817847880416]
ヒルベルト空間上の様々な線形予測問題を含む統一的なフレームワークを提供する。
誤特定レベル $epsilon$ に対して、これらの推定器は、文献で最もよく知られたレートと一致する、$O(maxleft|mathcalO|1/2n-1/2, |mathcalI|1/2n-1 right+epsilon)$ の誤差率を達成する。
論文 参考訳(メタデータ) (2022-01-06T08:51:08Z) - Nearest neighbor empirical processes [7.034466417392574]
近辺から所与の点$x$への応答に基づく実証測度を導入し、中央統計量として研究する。
均一な非漸近境界は、一様エントロピー数上でよく知られた条件の下で成立し、しばしばVapnik-Chervonenkis (Vapnik-Chervonenkis) と呼ばれる。
これは、標準公式を用いて、全データの代わりに最も近い隣人だけを用いて分散を推定できる可能性を示唆している。
論文 参考訳(メタデータ) (2021-10-27T08:15:20Z) - Sequential prediction under log-loss and misspecification [47.66467420098395]
累積的後悔の観点から,ログロスに基づく逐次予測の問題を考える。
明確に特定され誤記された症例の累積的後悔が偶然に現れる。
分布自由あるいはPAC後悔を$o(1)$で特徴づける。
論文 参考訳(メタデータ) (2021-01-29T20:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。