論文の概要: LOSDD: Leave-Out Support Vector Data Description for Outlier Detection
- arxiv url: http://arxiv.org/abs/2212.13626v1
- Date: Tue, 27 Dec 2022 21:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:43:45.309296
- Title: LOSDD: Leave-Out Support Vector Data Description for Outlier Detection
- Title(参考訳): LOSDD:outlier DetectionのためのLeave-outサポートベクタデータ記述
- Authors: Daniel Boiar and Thomas Liebig and Erich Schubert
- Abstract要約: サポートベクタマシンは、クリーンなデータでトレーニングされた場合、一級分類(OCSVM、SVDD)にうまく使われていますが、汚いデータではより悪く機能します。
退学戦略を用いて、汚れたトレーニングデータにおける退学率の検出の有効性を向上する。
既存のSVMベースのアプローチのスラック項を使用するよりも,点の外れ度を評価する方が効果的であることを示す。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support Vector Machines have been successfully used for one-class
classification (OCSVM, SVDD) when trained on clean data, but they work much
worse on dirty data: outliers present in the training data tend to become
support vectors, and are hence considered "normal". In this article, we improve
the effectiveness to detect outliers in dirty training data with a leave-out
strategy: by temporarily omitting one candidate at a time, this point can be
judged using the remaining data only. We show that this is more effective at
scoring the outlierness of points than using the slack term of existing
SVM-based approaches. Identified outliers can then be removed from the data,
such that outliers hidden by other outliers can be identified, to reduce the
problem of masking. Naively, this approach would require training N individual
SVMs (and training $O(N^2)$ SVMs when iteratively removing the worst outliers
one at a time), which is prohibitively expensive. We will discuss that only
support vectors need to be considered in each step and that by reusing SVM
parameters and weights, this incremental retraining can be accelerated
substantially. By removing candidates in batches, we can further improve the
processing time, although it obviously remains more costly than training a
single SVM.
- Abstract(参考訳): サポートベクターマシンは、クリーンなデータでトレーニングされた場合のワンクラス分類(ocsvm、svdd)にうまく使われてきたが、汚れたデータではずっとうまく動作している。
本稿では,1つの候補を一時的に省略することで,残余データのみを用いて,汚れたトレーニングデータの外れ値の検出の有効性を向上する。
既存のSVMベースのアプローチのスラック項を使用するよりも,点の外れ度を評価する方が効果的であることを示す。
識別された外れ値がデータから削除され、他の外れ値によって隠された外れ値が識別され、マスキングの問題を軽減できる。
このアプローチでは、N個の個別のSVM(かつ、最悪のアウトレイラを一度に繰り返し削除する場合に$O(N^2)$ SVMをトレーニングする)をトレーニングする必要があります。
各ステップでサポートベクトルのみを考慮し、SVMパラメータと重みを再利用することで、この漸進的再トレーニングが大幅に加速できるかどうかを議論する。
バッチ内の候補を取り除くことで、処理時間をさらに改善できますが、明らかに単一のSVMをトレーニングするよりもコストがかかります。
関連論文リスト
- STAMP: Outlier-Aware Test-Time Adaptation with Stable Memory Replay [76.06127233986663]
テスト時間適応(TTA)は、トレーニングデータとテストデータの間の分散シフトに、未ラベルのデータのみを用いて対処することを目的としている。
本稿では,サンプル認識とオフリエ拒絶の両方を行う問題に注意を払っている。
本稿では,STAble Memory rePlay (STAMP) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-22T16:25:41Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Optimization meets Machine Learning: An Exact Algorithm for Semi-Supervised Support Vector Machines [0.9831489366502302]
サポートベクトルマシン(SVM)は、バイナリ分類のための教師付き学習モデルである。
半定値プログラミング(SDP)緩和を用いたS3VMの新しい分岐手法を提案する。
SDP緩和は文献で利用できるものよりもはるかに強い境界を提供する。
論文 参考訳(メタデータ) (2023-12-15T13:44:54Z) - SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - ODIM: Outlier Detection via Likelihood of Under-Fitted Generative Models [4.956259629094216]
Unsupervised Outlier Detection (UOD) とは、非教師付き外乱検出(unsupervised outlier detection, UOD)問題である。
我々は、IM効果(ODIM)による外れ検知と呼ばれる新しい手法を開発した。
注目すべきなのは、ODIMはほんの数回の更新しか必要とせず、計算効率が他のディープラーニングベースのアルゴリズムの何倍も高速であることだ。
論文 参考訳(メタデータ) (2023-01-11T01:02:27Z) - Unsupervised Outlier Detection using Memory and Contrastive Learning [53.77693158251706]
特徴空間における外乱検出は,外乱検出から外乱検出までの特徴距離を測定することで行うことができると考えている。
本稿では,メモリモジュールとコントラスト学習モジュールを用いたMCODフレームワークを提案する。
提案したMCODは高い性能を達成し,9つの最先端手法より優れる。
論文 参考訳(メタデータ) (2021-07-27T07:35:42Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z) - Defending SVMs against Poisoning Attacks: the Hardness and DBSCAN
Approach [27.503734504441365]
近年、敵対的機械学習が注目されている。
本稿では,SVMを毒殺攻撃から守ることを検討する。
我々は、堅牢なSVMアルゴリズムとデータ衛生化の2つの防衛戦略について研究する。
論文 参考訳(メタデータ) (2020-06-14T01:19:38Z) - Approximate Data Deletion from Machine Learning Models [31.689174311625084]
トレーニングされた機械学習(ML)モデルからデータを削除することは、多くのアプリケーションにおいて重要なタスクである。
線形モデルとロジスティックモデルに対する近似的削除法を提案する。
また,MLモデルからのデータ削除の完全性を評価するための機能注入テストも開発した。
論文 参考訳(メタデータ) (2020-02-24T05:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。