論文の概要: Majorization-Minimization for sparse SVMs
- arxiv url: http://arxiv.org/abs/2308.16858v1
- Date: Thu, 31 Aug 2023 17:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 13:41:52.166949
- Title: Majorization-Minimization for sparse SVMs
- Title(参考訳): スパースSVMの磁化最小化
- Authors: Alessandro Benfenati, Emilie Chouzenoux, Giorgia Franchini, Salla
Latva-Aijo, Dominik Narnhofer, Jean-Christophe Pesquet, Sebastian J. Scott,
Mahsa Yousefi
- Abstract要約: サポートベクタマシン(SVM)は、数十年前に教師付きフレームワークの下でバイナリ分類タスクを実行するために導入された。
それらはしばしば他の教師付き手法よりも優れており、マシンラーニング分野において最も一般的なアプローチの1つである。
本研究では,スムーズなスパースプロモーティング型正方形ヒンジ損失最小化によるSVMのトレーニングについて検討する。
- 参考スコア(独自算出の注目度): 46.99165837639182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several decades ago, Support Vector Machines (SVMs) were introduced for
performing binary classification tasks, under a supervised framework. Nowadays,
they often outperform other supervised methods and remain one of the most
popular approaches in the machine learning arena. In this work, we investigate
the training of SVMs through a smooth sparse-promoting-regularized squared
hinge loss minimization. This choice paves the way to the application of quick
training methods built on majorization-minimization approaches, benefiting from
the Lipschitz differentiabililty of the loss function. Moreover, the proposed
approach allows us to handle sparsity-preserving regularizers promoting the
selection of the most significant features, so enhancing the performance.
Numerical tests and comparisons conducted on three different datasets
demonstrate the good performance of the proposed methodology in terms of
qualitative metrics (accuracy, precision, recall, and F 1 score) as well as
computational cost.
- Abstract(参考訳): 数十年前、SVM(Support Vector Machines)は、教師付きフレームワークの下でバイナリ分類タスクを実行するために導入された。
今日では、彼らはしばしば他の教師付き手法よりも優れており、機械学習分野において最も人気のあるアプローチの1つである。
本研究では,スムーズなスパースプロモーティング型正方形ヒンジ損失最小化によるSVMのトレーニングについて検討する。
この選択は、メジャー化最小化アプローチに基づいた素早いトレーニング手法の適用への道を開き、損失関数のリプシッツ微分の恩恵を受ける。
さらに,提案手法により,最も重要な特徴の選択を促進するスパルシリティ保存レギュラライザの処理が可能となり,性能が向上した。
3つの異なるデータセットで行った数値実験と比較は、定性的な指標(精度、精度、リコール、F1スコア)と計算コストの観点から提案手法の優れた性能を示す。
関連論文リスト
- Improving the Evaluation and Actionability of Explanation Methods for Multivariate Time Series Classification [4.588028371034407]
MTSCに適用された属性手法の評価手法であるInterpretTimeの分析に焦点をあてる。
提案手法のいくつかの重大な弱点を示し,その精度と効率を改善するためのアイデアを提案する。
SHAPやFeature Ablationのような摂動に基づく手法は、データセットの集合でうまく機能する。
論文 参考訳(メタデータ) (2024-06-18T11:18:46Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Smooth Ranking SVM via Cutting-Plane Method [6.946903076677842]
我々は,AUCを最大化するために,Randing SVMと類似した切削平面法に依存するプロトタイプ学習手法を開発した。
本アルゴリズムは,切削面を反復的に導入することで,より単純なモデルを学ぶ。
73のバイナリ分類データセットを用いて行った実験から,本手法は競合する25のデータセットの中で最高のAUCが得られる。
論文 参考訳(メタデータ) (2024-01-25T18:47:23Z) - Multi-class Support Vector Machine with Maximizing Minimum Margin [67.51047882637688]
Support Vector Machine (SVM) は、パターン認識タスクに広く応用されている機械学習技術である。
本稿では,クラス損失のペア化と最小マージンの最大化を両立するマルチクラスSVMの新たな手法を提案する。
実験により,提案手法の有効性と優位性を示す。
論文 参考訳(メタデータ) (2023-12-11T18:09:55Z) - Efficient Training of One Class Classification-SVMs [0.0]
そこで本研究では,一級分類の実施に高効率なトレーニング手法を用いることを検討した。
本稿では,デュアルソフトマージンワンクラスSVM学習のための効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-28T15:35:16Z) - An alternative to SVM Method for Data Classification [0.0]
サポートベクトルマシン(SVM)は、データ分類のための一般的なカーネル手法である。
この方法は、時間処理、高次元ケースにおける最適化プロセスの失敗のリスクなど、いくつかの弱点に悩まされている。
本稿では, 上記の欠点を微妙に改善した, 類似性能の代替手法を提案する。
論文 参考訳(メタデータ) (2023-08-20T14:09:01Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。