論文の概要: Smooth Ranking SVM via Cutting-Plane Method
- arxiv url: http://arxiv.org/abs/2401.14388v1
- Date: Thu, 25 Jan 2024 18:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 13:32:10.476555
- Title: Smooth Ranking SVM via Cutting-Plane Method
- Title(参考訳): カットプレーン法によるSVMの平滑化
- Authors: Erhan Can Ozcan, Berk G\"org\"ul\"u, Mustafa G. Baydogan, Ioannis Ch.
Paschalidis
- Abstract要約: 我々は,AUCを最大化するために,Randing SVMと類似した切削平面法に依存するプロトタイプ学習手法を開発した。
本アルゴリズムは,切削面を反復的に導入することで,より単純なモデルを学ぶ。
73のバイナリ分類データセットを用いて行った実験から,本手法は競合する25のデータセットの中で最高のAUCが得られる。
- 参考スコア(独自算出の注目度): 6.946903076677842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The most popular classification algorithms are designed to maximize
classification accuracy during training. However, this strategy may fail in the
presence of class imbalance since it is possible to train models with high
accuracy by overfitting to the majority class. On the other hand, the Area
Under the Curve (AUC) is a widely used metric to compare classification
performance of different algorithms when there is a class imbalance, and
various approaches focusing on the direct optimization of this metric during
training have been proposed. Among them, SVM-based formulations are especially
popular as this formulation allows incorporating different regularization
strategies easily. In this work, we develop a prototype learning approach that
relies on cutting-plane method, similar to Ranking SVM, to maximize AUC. Our
algorithm learns simpler models by iteratively introducing cutting planes, thus
overfitting is prevented in an unconventional way. Furthermore, it penalizes
the changes in the weights at each iteration to avoid large jumps that might be
observed in the test performance, thus facilitating a smooth learning process.
Based on the experiments conducted on 73 binary classification datasets, our
method yields the best test AUC in 25 datasets among its relevant competitors.
- Abstract(参考訳): 最も一般的な分類アルゴリズムは、訓練中の分類精度を最大化するように設計されている。
しかし、この戦略は、多数派に過度に適合して高精度にモデルを訓練できるため、クラス不均衡の存在下で失敗する可能性がある。
一方、aucは、クラス不均衡がある場合の異なるアルゴリズムの分類性能を比較するために広く用いられているメトリクスであり、トレーニング中のこのメトリックの直接的最適化に焦点を当てた様々なアプローチが提案されている。
この定式化により、異なる正規化戦略を簡単に組み込むことができるため、svmベースの定式化は特に一般的である。
本研究では,AUC を最大化するために,Randing SVM と同様の切削平面法に基づくプロトタイプ学習手法を開発する。
本アルゴリズムは,切削面を反復的に導入することで,より単純なモデルを学習する。
さらに、各イテレーションにおける重みの変化をペナルティ化し、テストパフォーマンスで見られる大きなジャンプを避けることで、スムーズな学習プロセスを容易にします。
73のバイナリ分類データセットを用いて行った実験から,本手法は競合する25のデータセットの中で最高のAUCが得られる。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Efficient Training of One Class Classification-SVMs [0.0]
そこで本研究では,一級分類の実施に高効率なトレーニング手法を用いることを検討した。
本稿では,デュアルソフトマージンワンクラスSVM学習のための効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-28T15:35:16Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - SetConv: A New Approach for Learning from Imbalanced Data [29.366843553056594]
集合畳み込み操作とエピソード学習戦略を提案し,各クラスに1つの代表を抽出する。
提案アルゴリズムは入力順序に関わらず置換不変であることを示す。
論文 参考訳(メタデータ) (2021-04-03T22:33:30Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Unsupervised Real Time Prediction of Faults Using the Support Vector
Machine [1.1852751647387592]
提案手法は,SMOトレーニングアルゴリズムを用いることで,より優れた性能が得られることを示す。
この予測モデルの分類性能は、SMOトレーニングアルゴリズムの有無にかかわらず、SVMよりもかなり優れている。
論文 参考訳(メタデータ) (2020-12-30T04:27:10Z) - Equipment Failure Analysis for Oil and Gas Industry with an Ensemble
Predictive Model [0.0]
提案手法は,SMOトレーニングアルゴリズムを用いることで,より優れた性能が得られることを示す。
この予測モデルの分類性能は、SMOトレーニングアルゴリズムの有無にかかわらず、SVMよりもかなり優れている。
論文 参考訳(メタデータ) (2020-12-30T04:14:15Z) - A fast learning algorithm for One-Class Slab Support Vector Machines [1.1613446814180841]
本稿では,SMO (Sequential Minimal Optimization) を用いた一級スラブSVMの高速トレーニング手法を提案する。
その結果、このトレーニング手法は、他の準計画法(QP)の解法よりも、大規模なトレーニングデータに対してより優れたスケールが可能であることが示唆された。
論文 参考訳(メタデータ) (2020-11-06T09:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。