論文の概要: Beyond Tsybakov: Model Margin Noise and $\mathcal{H}$-Consistency Bounds
- arxiv url: http://arxiv.org/abs/2511.15816v1
- Date: Wed, 19 Nov 2025 19:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.343247
- Title: Beyond Tsybakov: Model Margin Noise and $\mathcal{H}$-Consistency Bounds
- Title(参考訳): モデルマージンノイズと$\mathcal{H}$-Consistency境界
- Authors: Mehryar Mohri, Yutao Zhong,
- Abstract要約: 本稿では,モデルマージンノイズ(MMノイズ)を仮定した新しい低雑音条件を提案する。
拡張された$mathcalH$-consistency boundsを、バイナリとマルチクラスの両方の分類に導出する。
- 参考スコア(独自算出の注目度): 42.67092904252001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new low-noise condition for classification, the Model Margin Noise (MM noise) assumption, and derive enhanced $\mathcal{H}$-consistency bounds under this condition. MM noise is weaker than Tsybakov noise condition: it is implied by Tsybakov noise condition but can hold even when Tsybakov fails, because it depends on the discrepancy between a given hypothesis and the Bayes-classifier rather than on the intrinsic distributional minimal margin (see Figure 1 for an illustration of an explicit example). This hypothesis-dependent assumption yields enhanced $\mathcal{H}$-consistency bounds for both binary and multi-class classification. Our results extend the enhanced $\mathcal{H}$-consistency bounds of Mao, Mohri, and Zhong (2025a) with the same favorable exponents but under a weaker assumption than the Tsybakov noise condition; they interpolate smoothly between linear and square-root regimes for intermediate noise levels. We also instantiate these bounds for common surrogate loss families and provide illustrative tables.
- Abstract(参考訳): 分類のための新しい低雑音条件、モデルマージンノイズ(MMノイズ)仮定を導入し、この条件の下で拡張された$\mathcal{H}$-consistency boundsを導出する。
MMノイズはツィバコフノイズ条件よりも弱い: テュバコフノイズ条件によって暗示されるが、ティバコフノイズ条件が失敗しても保たれる。
この仮説に依存した仮定は、二項分類と多項分類の両方に対して$\mathcal{H}$-一貫性境界が強化される。
以上の結果から,Mao,Mohri,Zhong (2025a) の拡張された$\mathcal{H}$-consistency bounds(==================================================================================================================================================================(=================================================
また、これらの境界を共通の代理損失族に対してインスタンス化し、図表を提供する。
関連論文リスト
- Skewness-Robust Causal Discovery in Location-Scale Noise Models [47.09233752567902]
位置スケールノイズモデルに基づく因果発見のための確率に基づくアルゴリズムであるSkewDを提案する。
SkewDは通常の正規分布フレームワークをスキュー正規設定に拡張し、対称性と歪んだ雑音下での信頼性推論を可能にする。
我々は、スキューノイズを伴う新しい合成データセットと、確立されたベンチマークデータセットに基づいてSkewDを評価する。
論文 参考訳(メタデータ) (2025-11-18T12:40:41Z) - Stochastic Weakly Convex Optimization Under Heavy-Tailed Noises [55.43924214633558]
本稿では,サブワイブルノイズとSsBCノイズの2種類のノイズに着目した。
これら2つのノイズ仮定の下では、凸最適化と滑らかな最適化の文脈において、SFOMの不規則および高確率収束が研究されている。
論文 参考訳(メタデータ) (2025-07-17T16:48:45Z) - Nonlinear Stochastic Gradient Descent and Heavy-tailed Noise: A Unified Framework and High-probability Guarantees [56.80920351680438]
本研究では,重音の存在下でのオンライン学習における高確率収束について検討する。
ノイズモーメントを仮定することなく、幅広い種類の非線形性を保証する。
論文 参考訳(メタデータ) (2024-10-17T18:25:28Z) - Revisiting Convergence of AdaGrad with Relaxed Assumptions [4.189643331553922]
問題に対する AdaGrad の収束と運動量(特別の場合として AdaGrad をカバー)を再考する。
このモデルは、多くの実用的な応用において、サブソースを含む広い範囲のノイズを含む。
論文 参考訳(メタデータ) (2024-02-21T13:24:14Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - Robust Learning under Strong Noise via SQs [5.9256596453465225]
各SQ学習可能なクラスは、幅広いノイズモデルに対して、OPT + $epsilon Misilon誤分類誤差を持つ効率的な学習アルゴリズムを許容することを示す。
この設定は、既知の雑音確率を持つRCNの下で広く研究されている問題分類を大幅に一般化する。
論文 参考訳(メタデータ) (2020-10-18T21:02:26Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。