論文の概要: Local Duality for Sparse Support Vector Machines
- arxiv url: http://arxiv.org/abs/2601.20170v1
- Date: Wed, 28 Jan 2026 02:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.726026
- Title: Local Duality for Sparse Support Vector Machines
- Title(参考訳): スパース支持ベクトルマシンの局所的双対性
- Authors: Penghe Zhang, Naihua Xiu, Houduo Qi,
- Abstract要約: スパースサポートベクターマシン(SSVM)は近年注目を集めており、凸SVMよりも経験的な優位性を示している。
本稿では,そのようなSSVM定式化のための局所双対性理論を開発し,ヒンジロスSVMとランプロスSVMとの関係について検討する。
- 参考スコア(独自算出の注目度): 3.562094249178102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the rise of cardinality minimization in optimization, sparse support vector machines (SSVMs) have attracted much attention lately and show certain empirical advantages over convex SVMs. A common way to derive an SSVM is to add a cardinality function such as $\ell_0$-norm to the dual problem of a convex SVM. However, this process lacks theoretical justification. This paper fills the gap by developing a local duality theory for such an SSVM formulation and exploring its relationship with the hinge-loss SVM (hSVM) and the ramp-loss SVM (rSVM). In particular, we prove that the derived SSVM is exactly the dual problem of the 0/1-loss SVM, and the linear representer theorem holds for their local solutions. The local solution of SSVM also provides guidelines on selecting hyperparameters of hSVM and rSVM. {Under specific conditions, we show that a sequence of global solutions of hSVM converges to a local solution of 0/1-loss SVM. Moreover, a local minimizer of 0/1-loss SVM is a local minimizer of rSVM.} This explains why a local solution induced by SSVM outperforms hSVM and rSVM in the prior empirical study. We further conduct numerical tests on real datasets and demonstrate potential advantages of SSVM by working with locally nice solutions proposed in this paper.
- Abstract(参考訳): 最適化における基数最小化の増大により、近年、スパースサポートベクトルマシン(SSVM)が注目され、凸SVMよりも経験的な優位性を示している。
SSVM を導出する一般的な方法は、凸 SVM の双対問題に $\ell_0$-norm のような濃度関数を加えることである。
しかし、この過程は理論上の正当化を欠いている。
本稿では,そのようなSSVM定式化のための局所双対性理論を開発し,ヒンジロスSVM(hSVM)とランプロスSVM(rSVM)との関係を探求することによって,ギャップを埋める。
特に、導出された SSVM がちょうど 0/1-loss SVM の双対問題であることを証明し、その局所解に対して線形表現定理が成立する。
SSVMのローカルソリューションはまた、hSVMとrSVMのハイパーパラメータを選択するためのガイドラインも提供している。
条件下では、hSVM のグローバル解の列が 0/1-loss SVM の局所解に収束することを示す。
さらに、0/1-loss SVM の局所最小化器は rSVM の局所最小化器である。
これは、SSVMによって誘導されるローカルソリューションが、以前の実証研究でhSVMとrSVMより優れている理由を説明する。
さらに,本論文では,実データセットの数値実験を行い,本論文で提案した局所的に優れた解を扱うことにより,SSVMの潜在的な利点を実証する。
関連論文リスト
- $p$SVM: Soft-margin SVMs with $p$-norm Hinge Loss [0.0]
ヒンジ損失に基づくサポートベクトルマシン(SVM)は、様々なバイナリ分類タスクに広く議論され、適用されてきた。
本稿では,$p$SVMの特性,性能,トレーニングアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-08-19T11:30:00Z) - Multi-class Support Vector Machine with Maximizing Minimum Margin [60.06805919852749]
Support Vector Machine (SVM) は、パターン認識タスクに広く応用されている機械学習技術である。
本稿では,クラス損失のペア化と最小マージンの最大化を両立するマルチクラスSVMの新たな手法を提案する。
実験により,提案手法の有効性と優位性を示す。
論文 参考訳(メタデータ) (2023-12-11T18:09:55Z) - Lp- and Risk Consistency of Localized SVMs [0.0]
カーネルベースの正規化リスク最小化器は、サポートベクターマシン(SVM)とも呼ばれ、多くの望ましい特性を持つが、大規模なデータセットを扱う際の超線形計算要求に悩まされている。
本稿では,SVMの局所化とその一貫性について解析する。
論文 参考訳(メタデータ) (2023-05-16T12:11:08Z) - New Equivalences Between Interpolation and SVMs: Kernels and Structured
Features [22.231455330003328]
本稿では、任意のカーネルを再生するヒルベルト空間において、ラベルに対するフレキシブルな生成モデルのクラスでSVPを証明するための新しいフレキシブルな分析フレームワークを提案する。
我々は、SVPが以前の作業でカバーされていない多くの興味深い設定で発生していることを示し、カーネルSVM分類のための新しい一般化結果を証明するためにこれらの結果を活用する。
論文 参考訳(メタデータ) (2023-05-03T17:52:40Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Chance constrained conic-segmentation support vector machine with
uncertain data [0.0]
サポートベクトルマシン(SVM)は、よく知られた学習アルゴリズムのクラスの一つである。
本稿では,CS-SVMのデータポイントの不確かさや誤動作について検討する。
論文 参考訳(メタデータ) (2021-07-28T12:29:47Z) - Machine-Learning-Derived Entanglement Witnesses [55.76279816849472]
本稿では,線形支援ベクトルマシン (SVM) と絡み合い目撃者の対応を示す。
我々はこの対応を利用して、二部類と三部類(およびキュビット)の絡み合った状態に対する絡み合いの証人を生成する。
論文 参考訳(メタデータ) (2021-07-05T22:28:02Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。