論文の概要: Tight Margin-Based Generalization Bounds for Voting Classifiers over Finite Hypothesis Sets
- arxiv url: http://arxiv.org/abs/2511.20407v1
- Date: Tue, 25 Nov 2025 15:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.527983
- Title: Tight Margin-Based Generalization Bounds for Voting Classifiers over Finite Hypothesis Sets
- Title(参考訳): 有限仮説集合上の投票分類器のタイトマージンに基づく一般化境界
- Authors: Kasper Green Larsen, Natascha Schalburg,
- Abstract要約: 一般化は、仮説セットのサイズ、マージン、与えられたマージンを持つトレーニングポイントの分数、トレーニングサンプルの数、失敗確率の間のトレードオフにおいて極めて厳密であることを示す。
- 参考スコア(独自算出の注目度): 18.1837682372913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove the first margin-based generalization bound for voting classifiers, that is asymptotically tight in the tradeoff between the size of the hypothesis set, the margin, the fraction of training points with the given margin, the number of training samples and the failure probability.
- Abstract(参考訳): 投票分類器に対する最初のマージンベースの一般化を証明し、これは仮説セットのサイズ、マージン、与えられたマージンを持つトレーニングポイントの割合、トレーニングサンプルの数、失敗確率の間のトレードオフにおいて漸近的に厳密である。
関連論文リスト
- Tight Generalization Bounds for Large-Margin Halfspaces [12.346403151044438]
与えられたマージン間のトレードオフ、与えられたマージンを持つトレーニングポイントの分数、失敗確率、トレーニングポイントの個数に非常に密接な大マージンハーフスペースに対する最初の一般化を証明した。
論文 参考訳(メタデータ) (2025-02-19T13:04:49Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - On Margins and Generalisation for Voting Classifiers [8.728423607404006]
分類器の有限アンサンブル上での多数投票の一般化特性について検討する。
我々は、PAC-ベイズ理論を通じて、マージンベースの一般化境界を証明した。
論文 参考訳(メタデータ) (2022-06-09T16:55:37Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Learning Stochastic Majority Votes by Minimizing a PAC-Bayes
Generalization Bound [15.557653926558638]
分類器の有限アンサンブルに対する多数票の対について検討し、その一般化特性について検討する。
ディリクレ分布でインスタンス化し、予測されるリスクに対して閉じた形式と微分可能な表現を可能にする。
結果の多数決学習アルゴリズムは、最先端の精度と(非空きな)厳密な境界から恩恵を得る。
論文 参考訳(メタデータ) (2021-06-23T16:57:23Z) - Relative Deviation Margin Bounds [55.22251993239944]
我々はRademacher複雑性の観点から、分布依存と一般家庭に有効な2種類の学習境界を与える。
有限モーメントの仮定の下で、非有界な損失関数に対する分布依存的一般化境界を導出する。
論文 参考訳(メタデータ) (2020-06-26T12:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。