論文の概要: Tight bounds for maximum $\ell_1$-margin classifiers
- arxiv url: http://arxiv.org/abs/2212.03783v1
- Date: Wed, 7 Dec 2022 17:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:23:04.192955
- Title: Tight bounds for maximum $\ell_1$-margin classifiers
- Title(参考訳): 最大$\ell_1$-margin分類器のタイト境界
- Authors: Stefan Stojanovic, Konstantin Donhauser and Fanny Yang
- Abstract要約: 適応性は、標準的な識別的設定に対する最大$ell_$-margin分類器には適用されないことを示す。
ノイズを補間すると、誤差は次数$frac1sqrtlog(d/n)$で消滅する。
- 参考スコア(独自算出の注目度): 10.055143995729415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Popular iterative algorithms such as boosting methods and coordinate descent
on linear models converge to the maximum $\ell_1$-margin classifier, a.k.a.
sparse hard-margin SVM, in high dimensional regimes where the data is linearly
separable. Previous works consistently show that many estimators relying on the
$\ell_1$-norm achieve improved statistical rates for hard sparse ground truths.
We show that surprisingly, this adaptivity does not apply to the maximum
$\ell_1$-margin classifier for a standard discriminative setting. In
particular, for the noiseless setting, we prove tight upper and lower bounds
for the prediction error that match existing rates of order
$\frac{\|\wgt\|_1^{2/3}}{n^{1/3}}$ for general ground truths. To complete the
picture, we show that when interpolating noisy observations, the error vanishes
at a rate of order $\frac{1}{\sqrt{\log(d/n)}}$. We are therefore first to show
benign overfitting for the maximum $\ell_1$-margin classifier.
- Abstract(参考訳): 線形モデル上でのブースティング法や座標降下のような一般的な反復アルゴリズムは、データを線形分離可能な高次元状態において最大$\ell_1$-margin分類器、すなわちスパースハードマージンSVMに収束する。
以前の研究は、$\ell_1$-normに依存する多くの推定者が、厳密な基底真理に対する統計率を改善することを一貫して示している。
驚くべきことに、この適応性は標準判別設定の最大$\ell_1$-margin分類器には適用されない。
特に、ノイズのない設定では、一般的な基底真理に対して$\frac{\|\wgt\|_1^{2/3}}{n^{1/3}}$の順序に一致する予測誤差の上限を上下に厳密に示す。
画像を完成させるために、ノイズ観測を補間すると、誤差は$\frac{1}{\sqrt{\log(d/n)}}$で消滅する。
したがって、最初に、最大$\ell_1$-margin分類器に対する良性過剰性を示す。
関連論文リスト
- Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - Revisiting Inexact Fixed-Point Iterations for Min-Max Problems: Stochasticity and Structured Nonconvexity [18.427215139020632]
1L 1$は、マルチレベルなCarloイテレーションであっても、最先端の問題を改善するために使用できることを示す。
解に関する唯一のホールドが新しい1L 1$理論である場合、不正確なハルパーネス推定器を1L 1$で解析する。
論文 参考訳(メタデータ) (2024-02-07T18:22:41Z) - Universality of max-margin classifiers [10.797131009370219]
非ガウス的特徴に対する誤分類誤差の高次元普遍性と大域化写像の役割について検討する。
特に、オーバーパラメトリゼーションしきい値と一般化誤差はより単純なモデルで計算できる。
論文 参考訳(メタデータ) (2023-09-29T22:45:56Z) - $L^1$ Estimation: On the Optimality of Linear Estimators [64.76492306585168]
この研究は、条件中央値の線型性を誘導する$X$上の唯一の先行分布がガウス分布であることを示している。
特に、条件分布 $P_X|Y=y$ がすべての$y$に対して対称であるなら、$X$ はガウス分布に従う必要がある。
論文 参考訳(メタデータ) (2023-09-17T01:45:13Z) - Greedy Pruning with Group Lasso Provably Generalizes for Matrix Sensing [30.508036898655114]
プルーニングスキームは、大量のパラメータを持つ訓練されたモデルの複雑さを減らすために、実際に広く用いられている。
正規化がない場合の勾配降下は、グリーディプルーニングに適さないモデル、すなわち、多くの列が最大値に匹敵する$ell$ノルムを持つことができる。
以上の結果から,グリーディ・プルーニング+ファインチューニングがより小さなモデルに繋がる理由について,より厳密な考察が得られた。
論文 参考訳(メタデータ) (2023-03-20T21:05:44Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - A first-order primal-dual method with adaptivity to local smoothness [64.62056765216386]
凸凹対象 $min_x max_y f(x) + langle Ax, yrangle - g*(y)$, ここで、$f$ は局所リプシッツ勾配を持つ凸関数であり、$g$ は凸かつ非滑らかである。
主勾配ステップと2段ステップを交互に交互に行うCondat-Vuアルゴリズムの適応バージョンを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:19:30Z) - Regret Lower Bound and Optimal Algorithm for High-Dimensional Contextual
Linear Bandit [10.604939762790517]
我々は、累積後悔に対して、$mathcalObig((log d)fracalpha+12Tfrac1-alpha2+log Tbig)$をミニマックス下界として証明する。
第2に,汎用的なアッパー信頼境界(UCB)戦略に着想を得た,シンプルで効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-23T19:35:38Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - The generalization error of max-margin linear classifiers: Benign
overfitting and high dimensional asymptotics in the overparametrized regime [11.252856459394854]
現代の機械学習分類器は、トレーニングセットに消滅する分類誤差を示すことが多い。
これらの現象に触発され、線形分離可能なデータに対する高次元の最大マージン分類を再検討する。
論文 参考訳(メタデータ) (2019-11-05T00:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。