論文の概要: LOSDD: Leave-Out Support Vector Data Description for Outlier Detection
- arxiv url: http://arxiv.org/abs/2212.13626v1
- Date: Tue, 27 Dec 2022 21:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:43:45.309296
- Title: LOSDD: Leave-Out Support Vector Data Description for Outlier Detection
- Title(参考訳): LOSDD:outlier DetectionのためのLeave-outサポートベクタデータ記述
- Authors: Daniel Boiar and Thomas Liebig and Erich Schubert
- Abstract要約: サポートベクタマシンは、クリーンなデータでトレーニングされた場合、一級分類(OCSVM、SVDD)にうまく使われていますが、汚いデータではより悪く機能します。
退学戦略を用いて、汚れたトレーニングデータにおける退学率の検出の有効性を向上する。
既存のSVMベースのアプローチのスラック項を使用するよりも,点の外れ度を評価する方が効果的であることを示す。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support Vector Machines have been successfully used for one-class
classification (OCSVM, SVDD) when trained on clean data, but they work much
worse on dirty data: outliers present in the training data tend to become
support vectors, and are hence considered "normal". In this article, we improve
the effectiveness to detect outliers in dirty training data with a leave-out
strategy: by temporarily omitting one candidate at a time, this point can be
judged using the remaining data only. We show that this is more effective at
scoring the outlierness of points than using the slack term of existing
SVM-based approaches. Identified outliers can then be removed from the data,
such that outliers hidden by other outliers can be identified, to reduce the
problem of masking. Naively, this approach would require training N individual
SVMs (and training $O(N^2)$ SVMs when iteratively removing the worst outliers
one at a time), which is prohibitively expensive. We will discuss that only
support vectors need to be considered in each step and that by reusing SVM
parameters and weights, this incremental retraining can be accelerated
substantially. By removing candidates in batches, we can further improve the
processing time, although it obviously remains more costly than training a
single SVM.
- Abstract(参考訳): サポートベクターマシンは、クリーンなデータでトレーニングされた場合のワンクラス分類(ocsvm、svdd)にうまく使われてきたが、汚れたデータではずっとうまく動作している。
本稿では,1つの候補を一時的に省略することで,残余データのみを用いて,汚れたトレーニングデータの外れ値の検出の有効性を向上する。
既存のSVMベースのアプローチのスラック項を使用するよりも,点の外れ度を評価する方が効果的であることを示す。
識別された外れ値がデータから削除され、他の外れ値によって隠された外れ値が識別され、マスキングの問題を軽減できる。
このアプローチでは、N個の個別のSVM(かつ、最悪のアウトレイラを一度に繰り返し削除する場合に$O(N^2)$ SVMをトレーニングする)をトレーニングする必要があります。
各ステップでサポートベクトルのみを考慮し、SVMパラメータと重みを再利用することで、この漸進的再トレーニングが大幅に加速できるかどうかを議論する。
バッチ内の候補を取り除くことで、処理時間をさらに改善できますが、明らかに単一のSVMをトレーニングするよりもコストがかかります。
関連論文リスト
- Optimization meets Machine Learning: An Exact Algorithm for
Semi-Supervised Support Vector Machines [1.104960878651584]
サポートベクトルマシン(SVM)は、バイナリ分類のための教師付き学習モデルである。
半定値プログラミング(SDP)緩和を用いたS3VMの新しい分岐手法を提案する。
SDP緩和は文献で利用できるものよりもはるかに強い境界を提供する。
論文 参考訳(メタデータ) (2023-12-15T13:44:54Z) - SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - ODIM: an efficient method to detect outliers via inlier-memorization
effect of deep generative models [3.1498833540989413]
本研究は,トレーニングデータに外乱を含む教師なし外乱検出問題を解決することを目的とする。
本稿では,深層ニューラルネットワークを用いたトレーニングデータセットにおける外れ値の同定を行うための,強力で効率的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-11T01:02:27Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Unsupervised Outlier Detection using Memory and Contrastive Learning [53.77693158251706]
特徴空間における外乱検出は,外乱検出から外乱検出までの特徴距離を測定することで行うことができると考えている。
本稿では,メモリモジュールとコントラスト学習モジュールを用いたMCODフレームワークを提案する。
提案したMCODは高い性能を達成し,9つの最先端手法より優れる。
論文 参考訳(メタデータ) (2021-07-27T07:35:42Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z) - Defending SVMs against Poisoning Attacks: the Hardness and DBSCAN
Approach [27.503734504441365]
近年、敵対的機械学習が注目されている。
本稿では,SVMを毒殺攻撃から守ることを検討する。
我々は、堅牢なSVMアルゴリズムとデータ衛生化の2つの防衛戦略について研究する。
論文 参考訳(メタデータ) (2020-06-14T01:19:38Z) - Approximate Data Deletion from Machine Learning Models [31.689174311625084]
トレーニングされた機械学習(ML)モデルからデータを削除することは、多くのアプリケーションにおいて重要なタスクである。
線形モデルとロジスティックモデルに対する近似的削除法を提案する。
また,MLモデルからのデータ削除の完全性を評価するための機能注入テストも開発した。
論文 参考訳(メタデータ) (2020-02-24T05:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。