論文の概要: MKL-$L_{0/1}$-SVM
- arxiv url: http://arxiv.org/abs/2308.12016v3
- Date: Sun, 3 Sep 2023 12:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 02:55:13.628990
- Title: MKL-$L_{0/1}$-SVM
- Title(参考訳): MKL-$L_{0/1}$-SVM
- Authors: Bin Zhu and Yijie Shi
- Abstract要約: 本稿では,学習損失関数を持つサポートベクトルマシン(SVM)のための多重集合(MKL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 25.73553746599503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a Multiple Kernel Learning (abbreviated as MKL) framework
for the Support Vector Machine (SVM) with the $(0, 1)$ loss function. Some
KKT-like first-order optimality conditions are provided and then exploited to
develop a fast ADMM algorithm to solve the nonsmooth nonconvex optimization
problem. Numerical experiments on real data sets show that the performance of
our MKL-$L_{0/1}$-SVM is comparable with the one of the leading approaches
called SimpleMKL developed by Rakotomamonjy, Bach, Canu, and Grandvalet
[Journal of Machine Learning Research, vol. 9, pp. 2491-2521, 2008].
- Abstract(参考訳): 本稿では,$(0, 1)$損失関数を持つサポートベクターマシン(svm)のためのマルチカーネル学習(mkl)フレームワークを提案する。
いくつかのKKTのような一階最適条件が提供され、非滑らかな非凸最適化問題を解決するために高速ADMMアルゴリズムを開発するために利用される。
実データ集合に関する数値実験により、我々のmkl-$l_{0/1}$-svmの性能は、rakotomamonjy, bach, canu, grandvaletによって開発されたsimplemklと呼ばれる主要なアプローチの1つに匹敵することが示された [journal of machine learning research, vol. 9, pp. 2491-2521, 2008]。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A Safe Screening Rule with Bi-level Optimization of $\nu$ Support Vector
Machine [15.096652880354199]
本稿では,$nu$-SVM に対する二レベル最適化による安全なスクリーニングルールを提案する。
我々のSRBO-$nu$-SVMは、Karush-Kuhn-Tucker条件を統合することによって厳密に推論される。
また,計算速度を改善するために,効率的な二重座標降下法 (DCDM) も開発している。
論文 参考訳(メタデータ) (2024-03-04T06:55:57Z) - Kernel Support Vector Machine Classifiers with the $\ell_0$-Norm Hinge
Loss [3.007949058551534]
Support Vector Machine (SVM)は、バイナリ分類問題において最も成功した機械学習技術の1つである。
本論文は, ヒンジ損失を持つベクトル($ell$-KSVM)に集中し, ヒンジ損失と$ell_$normの複合関数である。
合成データセットと実データセットの実験は、$ell_$-KSVMが標準のKSVMと同等の精度を達成可能であることを示すために照らされている。
論文 参考訳(メタデータ) (2023-06-24T14:52:44Z) - Provable and Practical: Efficient Exploration in Reinforcement Learning via Langevin Monte Carlo [104.9535542833054]
我々は、強化学習のためのトンプソンサンプリングに基づくスケーラブルで効果的な探索戦略を提案する。
代わりに、Langevin Monte Carlo を用いて、Q 関数をその後部分布から直接サンプリングする。
提案手法は,Atari57スイートからのいくつかの挑戦的な探索課題において,最先端の深部RLアルゴリズムと比較して,より優れた,あるいは類似した結果が得られる。
論文 参考訳(メタデータ) (2023-05-29T17:11:28Z) - An ADMM Solver for the MKL-$L_{0/1}$-SVM [19.83429448615329]
サポートベクトルマシンに対する多重カーネルカーネル問題を、悪名高い$(0)-ロス関数で定式化する。
高速な数値実験は有望であることが示されている。
論文 参考訳(メタデータ) (2023-03-08T08:48:02Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Nonlinear Kernel Support Vector Machine with 0-1 Soft Margin Loss [13.803988813225025]
本稿では,0-1ソフトマージン損失を持つサポートベクトルマシンの非線形モデルである$L_0/1$-KSVMを提案する。
1$L_0/1$-KSVMは、線形ピアに比べて非常に少ないSVを持ち、正確な予測精度を持つ。
論文 参考訳(メタデータ) (2022-03-01T12:53:52Z) - A Semismooth-Newton's-Method-Based Linearization and Approximation
Approach for Kernel Support Vector Machines [1.177306187948666]
Support Vector Machines (SVM) は最も人気があり、最も優れた分類アルゴリズムである。
本稿では,カーネルSVMに対する準平滑なニュートン法に基づく線形化近似手法を提案する。
提案手法の利点は、計算コストが低く、収束速度が速いことである。
論文 参考訳(メタデータ) (2020-07-21T07:44:21Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Kernel-Based Reinforcement Learning: A Finite-Time Analysis [53.47210316424326]
モデルに基づく楽観的アルゴリズムであるKernel-UCBVIを導入する。
スパース報酬を伴う連続MDPにおける我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2020-04-12T12:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。