論文の概要: Tight Generalization Bounds for Large-Margin Halfspaces
- arxiv url: http://arxiv.org/abs/2502.13692v1
- Date: Wed, 19 Feb 2025 13:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:58:37.682670
- Title: Tight Generalization Bounds for Large-Margin Halfspaces
- Title(参考訳): 大マルジンハーフスペースのタイト一般化境界
- Authors: Kasper Green Larsen, Natascha Schalburg,
- Abstract要約: 与えられたマージン間のトレードオフ、与えられたマージンを持つトレーニングポイントの分数、失敗確率、トレーニングポイントの個数に非常に密接な大マージンハーフスペースに対する最初の一般化を証明した。
- 参考スコア(独自算出の注目度): 12.346403151044438
- License:
- Abstract: We prove the first generalization bound for large-margin halfspaces that is asymptotically tight in the tradeoff between the margin, the fraction of training points with the given margin, the failure probability and the number of training points.
- Abstract(参考訳): 我々は、与えられたマージン間のトレードオフ、与えられたマージンを持つトレーニングポイントの分数、失敗確率、トレーニングポイントの数に漸近的に密接な大マージンハーフスペースに対する最初の一般化を証明した。
関連論文リスト
- Input margins can predict generalization too [1.2430809884830318]
入力マージンは一般の一般化の予測ではなく,探索空間が適切に制約されている場合であることを示す。
我々は、入力マージンに基づくそのような尺度を開発し、それを制約マージンと呼ぶ。
制約されたマージンは競争力が高く、他のマージン測定よりも優れています。
論文 参考訳(メタデータ) (2023-08-29T17:47:42Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Max-Margin Works while Large Margin Fails: Generalization without
Uniform Convergence [55.26547500184405]
既存のツールでは、テストの損失がトレーニングの損失に近いことを保証し、候補モデルのクラスを均一に制御するエム統一コンバージェンス(UC)に依存している。
Nagarajan と Kolter は、ある単純な線形および神経ネットワークの設定において、任意の一様収束境界は空であり、UC が失敗する環境での一般化の証明方法に関する疑問を解き放つことを示している。
我々は、ある信号対雑音のしきい値を超えると、これらの2つの設定でほぼテスト損失が得られないことを示す新しいタイプのマージン境界を証明した。
論文 参考訳(メタデータ) (2022-06-16T02:46:26Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Distribution of Classification Margins: Are All Data Equal? [61.16681488656473]
我々は理論的に動機付け、トレーニングセット上のマージン分布の曲線の下の領域が実際は一般化のよい尺度であることを実証的に示す。
結果として生じる"高いキャパシティ"機能のサブセットは、異なるトレーニング実行間で一貫性がない。
論文 参考訳(メタデータ) (2021-07-21T16:41:57Z) - Exact Recovery in the General Hypergraph Stochastic Block Model [92.28929858529679]
本稿では,d-uniform hypergraph block model(d-HSBM)の正確な回復の基本的な限界について検討する。
精度の高いしきい値が存在し、正確な回復がしきい値の上に達成でき、その下には不可能であることを示す。
論文 参考訳(メタデータ) (2021-05-11T03:39:08Z) - Agnostic Learning of Halfspaces with Gradient Descent via Soft Margins [92.7662890047311]
勾配降下は、分類誤差$tilde O(mathsfOPT1/2) + varepsilon$ in $mathrmpoly(d,1/varepsilon)$ time and sample complexity.
論文 参考訳(メタデータ) (2020-10-01T16:48:33Z) - Relative Deviation Margin Bounds [55.22251993239944]
我々はRademacher複雑性の観点から、分布依存と一般家庭に有効な2種類の学習境界を与える。
有限モーメントの仮定の下で、非有界な損失関数に対する分布依存的一般化境界を導出する。
論文 参考訳(メタデータ) (2020-06-26T12:37:17Z) - Near-Tight Margin-Based Generalization Bounds for Support Vector
Machines [15.447966950703952]
サポートベクトルマシン(SVM)はバイナリ分類の最も基本的なツールである。
本稿では、マージンの観点から古典的な一般化境界を再検討し、改善する。
我々は、ほぼ一致する下界で束縛された新しい一般化を補完するので、マージンの観点からSVMの一般化性能をほぼ確定する。
論文 参考訳(メタデータ) (2020-06-03T11:22:37Z) - The role of regularization in classification of high-dimensional noisy
Gaussian mixture [36.279288150100875]
雑音状態における2つのガウスの高次元混合を考える。
正規化凸分類器の一般化誤差を厳密に解析する。
ベイズ最適性能に到達できるような正規化の驚くべき効果について論じる。
論文 参考訳(メタデータ) (2020-02-26T14:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。