論文の概要: Cost-sensitive probabilistic predictions for support vector machines
- arxiv url: http://arxiv.org/abs/2310.05997v1
- Date: Mon, 9 Oct 2023 11:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 04:19:24.785748
- Title: Cost-sensitive probabilistic predictions for support vector machines
- Title(参考訳): サポートベクトルマシンのコスト感受性確率予測
- Authors: Sandra Ben\'itez-Pe\~na, Rafael Blanquero, Emilio Carrizosa, Pepa
Ram\'irez-Cobo
- Abstract要約: サポートベクターマシン(SVM)は広く使われており、最もよく検討され使用されている機械学習モデルの一つである。
本稿では,SVMの確率的出力を生成する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.743685428161914
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Support vector machines (SVMs) are widely used and constitute one of the best
examined and used machine learning models for two-class classification.
Classification in SVM is based on a score procedure, yielding a deterministic
classification rule, which can be transformed into a probabilistic rule (as
implemented in off-the-shelf SVM libraries), but is not probabilistic in
nature. On the other hand, the tuning of the regularization parameters in SVM
is known to imply a high computational effort and generates pieces of
information that are not fully exploited, not being used to build a
probabilistic classification rule. In this paper we propose a novel approach to
generate probabilistic outputs for the SVM. The new method has the following
three properties. First, it is designed to be cost-sensitive, and thus the
different importance of sensitivity (or true positive rate, TPR) and
specificity (true negative rate, TNR) is readily accommodated in the model. As
a result, the model can deal with imbalanced datasets which are common in
operational business problems as churn prediction or credit scoring. Second,
the SVM is embedded in an ensemble method to improve its performance, making
use of the valuable information generated in the parameters tuning process.
Finally, the probabilities estimation is done via bootstrap estimates, avoiding
the use of parametric models as competing approaches. Numerical tests on a wide
range of datasets show the advantages of our approach over benchmark
procedures.
- Abstract(参考訳): サポートベクターマシン(SVM)は,2クラス分類において最もよく検討され,使用されている機械学習モデルの一つである。
SVMの分類はスコア・プロシージャに基づいており、決定論的分類規則は(既成のSVMライブラリに実装されているように)確率規則に変換できるが、本質的には確率的ではない。
一方、SVMにおける正規化パラメータのチューニングは、高い計算労力を暗示し、完全に活用されていない情報の断片を生成し、確率的分類ルールを構築するために使用しないことが知られている。
本稿では,SVMの確率的出力を生成する新しい手法を提案する。
新しい方法は以下の3つの特性を持つ。
まず、コストに敏感に設計されており、感度(または真の正の率、TPR)と特異性(真の負の率、TNR)の異なる重要性がモデルで容易に許容される。
その結果、このモデルは運用上のビジネス問題に共通する不均衡なデータセットを、チャーン予測やクレジットスコアリングとして扱うことができる。
第二に、SVMは、パラメータチューニングプロセスで生成された貴重な情報を利用して、そのパフォーマンスを改善するためにアンサンブルメソッドに組み込まれている。
最後に、確率推定はブートストラップ推定を通じて行われ、競合するアプローチとしてパラメトリックモデルの使用を避ける。
幅広いデータセットの数値実験は、ベンチマーク処理よりもアプローチの利点を示している。
関連論文リスト
- Bayesian Estimation and Tuning-Free Rank Detection for Probability Mass Function Tensors [17.640500920466984]
本稿では,関節のPMFを推定し,そのランクを観測データから自動的に推定する新しい枠組みを提案する。
我々は、様々なモデルパラメータの後方分布を近似するために、変分推論(VI)に基づく決定論的解を導出し、さらに、変分推論(SVI)を利用して、VVIベースのアプローチのスケーラブルバージョンを開発する。
合成データと実映画レコメンデーションデータの両方を含む実験は、推定精度、自動ランク検出、計算効率の点で、VVIおよびSVIベースの手法の利点を示している。
論文 参考訳(メタデータ) (2024-10-08T20:07:49Z) - Sparse Learning and Class Probability Estimation with Weighted Support
Vector Machines [1.3597551064547502]
重み付きサポートベクトルマシン (wSVM) は、高い精度で様々な問題に対するクラス確率と分類を頑健に予測する上で、優れた値を示している。
スパース学習問題に対する精度の高い確率推定と自動変数選択を組み込んだ新しいwSVMフレームワークを提案する。
提案したwSVMsベースのスパース学習手法は幅広い応用があり、アンサンブル学習によりさらに$K$クラスに拡張できる。
論文 参考訳(メタデータ) (2023-12-17T06:12:33Z) - Anomaly Detection Under Uncertainty Using Distributionally Robust
Optimization Approach [0.9217021281095907]
異常検出は、大多数のパターンに従わないデータポイントを見つける問題として定義される。
1クラスのサポートベクトルマシン(SVM)メソッドは、通常のデータポイントと異常を区別するための決定境界を見つけることを目的としている。
誤分類の確率が低い分布的に頑健な確率制約モデルを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:13:22Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Robust Twin Parametric Margin Support Vector Machine for Multiclass Classification [0.0]
本稿では,マルチクラス分類の問題に対処するために,Twin Parametric Margin Support Vector Machine (TPMSVM) モデルを提案する。
各サンプルの周囲に有界・ノルム不確実性集合を構築し,決定論的モデルの頑健な対応を導出する。
提案したTPMSVM手法を実世界のデータセット上でテストし,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-09T19:27:24Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - Probabilistic Classification Vector Machine for Multi-Class
Classification [29.411892651468797]
確率的分類ベクトルマシン(PCVM)は、支持ベクトルマシンと関連するベクトルマシンの両方の利点を合成する。
我々はPCVMを1-vs-restや1-vs-oneといった投票戦略を通じてマルチクラスケースに拡張する。
mPCVMでは、2つの学習アルゴリズム、すなわち1つのトップダウンアルゴリズムと1つのボトムアップアルゴリズムが実装されている。
mPCVMの優れた性能は、合成データセットとベンチマークデータセットで広く評価されている。
論文 参考訳(メタデータ) (2020-06-29T03:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。