論文の概要: A Refinement of Vapnik--Chervonenkis' Theorem
- arxiv url: http://arxiv.org/abs/2601.16411v1
- Date: Fri, 23 Jan 2026 02:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.515356
- Title: A Refinement of Vapnik--Chervonenkis' Theorem
- Title(参考訳): ヴァプニクの再構成-チェルヴォネンキスの理論
- Authors: A. Iosevich, A. Vagharshakyan, E. Wyman,
- Abstract要約: Vapnik--Chervonenkisの定理は機械学習のセミナルな結果である。
古典的議論の確率的要素を再考する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vapnik--Chervonenkis' theorem is a seminal result in machine learning. It establishes sufficient conditions for empirical probabilities to converge to theoretical probabilities, uniformly over families of events. It also provides an estimate for the rate of such uniform convergence. We revisit the probabilistic component of the classical argument. Instead of applying Hoeffding's inequality at the final step, we use a normal approximation with explicit Berry--Esseen error control. This yields a moderate-deviation sharpening of the usual VC estimate, with an additional factor of order $(\varepsilon\sqrt{n})^{-1}$ in the leading exponential term when $\varepsilon\sqrt{n}$ is large.
- Abstract(参考訳): Vapnik-Chervonenkis の定理は、機械学習のセミナルな結果である。これは、経験的確率が事象の族に均一に収束する十分な条件を確立する。また、そのような一様収束率の見積もりも提供する。古典的議論の確率的成分を再考する。最後のステップで Hoeffding の不等式を適用する代わりに、明示的な Berry-Esseen 誤差制御による正規近似を用いる。
これにより、通常のVCの推定値が適度に小さくなり、$(\varepsilon\sqrt{n})^{-1}$の次数$(\varepsilon\sqrt{n})^{-1}$は、$\varepsilon\sqrt{n}$が大きければ、先行指数項の次数$(\varepsilon\sqrt{n})^{-1}$となる。
関連論文リスト
- Online Prediction of Stochastic Sequences with High Probability Regret Bounds [16.68585810113338]
学習者に知られている有限時間水平線を持つ列の普遍的予測という古典的問題を再検討する。
我々は、高い確率で保持する後悔境界を消滅させ、期待する文献から既存の境界を補完することを提案する。
可算アルファベット上の過程の普遍的な予測の場合、我々の有界状態は$mathcalO(T-1/2 -1/2)$の収束率を少なくとも1-$の確率で表す。
論文 参考訳(メタデータ) (2026-02-18T07:26:37Z) - Generalizability vs. Counterfactual Explainability Trade-Off [6.3107782051840555]
我々は、$varepsilon$-valid反実確率(varepsilon$-VCP)の概念を導入する。
モデルオーバーフィットにより, $varepsilon$-VCP は増加する傾向にある。
論文 参考訳(メタデータ) (2025-05-29T08:17:59Z) - Complexity Analysis of Normalizing Constant Estimation: from Jarzynski Equality to Annealed Importance Sampling and beyond [40.79840141270367]
非正規化確率密度 $piproptomathrme-V$ が与えられたとき、正規化定数 $Z=int_mathbbRdmathrme-V(x)mathrmdx$ または自由エネルギー $F=-log Z$ はベイズ統計学、統計力学、機械学習において重要な問題である。
本稿では,逆拡散サンプリングに基づく新しいアルゴリズムを提案し,その複雑さを解析するためのフレームワークを構築し,マルチモーダリティに対処する際の効率を実証的に実証する。
論文 参考訳(メタデータ) (2025-02-07T00:05:28Z) - A Unified Analysis for Finite Weight Averaging [50.75116992029417]
Gradient Descent(SGD)の平均イテレーションは、SWA(Weight Averaging)、EMA(Exponential moving Average)、LAWA(Latest Weight Averaging)といったディープラーニングモデルのトレーニングにおいて、経験的な成功を収めている。
本稿では、LAWAを有限重み平均化(FWA)として一般化し、最適化と一般化の観点からSGDと比較して、それらの利点を説明する。
論文 参考訳(メタデータ) (2024-11-20T10:08:22Z) - Beyond likelihood ratio bias: Nested multi-time-scale stochastic approximation for likelihood-free parameter estimation [49.78792404811239]
確率分析形式が不明なシミュレーションベースモデルにおける推論について検討する。
我々は、スコアを同時に追跡し、パラメータ更新を駆動する比率のないネスト型マルチタイムスケール近似(SA)手法を用いる。
我々のアルゴリズムは、オリジナルのバイアス$Obig(sqrtfrac1Nbig)$を排除し、収束率を$Obig(beta_k+sqrtfracalpha_kNbig)$から加速できることを示す。
論文 参考訳(メタデータ) (2024-11-20T02:46:15Z) - Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Robust Linear Predictions: Analyses of Uniform Concentration, Fast Rates
and Model Misspecification [16.0817847880416]
ヒルベルト空間上の様々な線形予測問題を含む統一的なフレームワークを提供する。
誤特定レベル $epsilon$ に対して、これらの推定器は、文献で最もよく知られたレートと一致する、$O(maxleft|mathcalO|1/2n-1/2, |mathcalI|1/2n-1 right+epsilon)$ の誤差率を達成する。
論文 参考訳(メタデータ) (2022-01-06T08:51:08Z) - Nearest neighbor empirical processes [7.034466417392574]
近辺から所与の点$x$への応答に基づく実証測度を導入し、中央統計量として研究する。
均一な非漸近境界は、一様エントロピー数上でよく知られた条件の下で成立し、しばしばVapnik-Chervonenkis (Vapnik-Chervonenkis) と呼ばれる。
これは、標準公式を用いて、全データの代わりに最も近い隣人だけを用いて分散を推定できる可能性を示唆している。
論文 参考訳(メタデータ) (2021-10-27T08:15:20Z) - Super fast rates in structured prediction [88.99819200562784]
連続的な問題が連続的な値を予測しているときに、離散的な問題が本質的に離散的なアウトプットを予測しているという事実を活用する方法を示す。
まず、近接する隣人に基づく予測器について説明し、二項分類で知られている確率を、構造的予測の枠組み内の任意の離散問題に一般化する。
次に、カーネルリッジの回帰について検討し、問題の硬さを特徴付けるパラメータによって、n-1/4$の既知のレートを任意に高速化する。
論文 参考訳(メタデータ) (2021-02-01T10:50:04Z) - Sequential prediction under log-loss and misspecification [47.66467420098395]
累積的後悔の観点から,ログロスに基づく逐次予測の問題を考える。
明確に特定され誤記された症例の累積的後悔が偶然に現れる。
分布自由あるいはPAC後悔を$o(1)$で特徴づける。
論文 参考訳(メタデータ) (2021-01-29T20:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。