論文の概要: Cascade Subspace Clustering for Outlier Detection
- arxiv url: http://arxiv.org/abs/2306.13500v1
- Date: Fri, 23 Jun 2023 13:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 12:37:18.275306
- Title: Cascade Subspace Clustering for Outlier Detection
- Title(参考訳): 外乱検出のためのカスケードサブスペースクラスタリング
- Authors: Qi Yang and Hao Zhu
- Abstract要約: 本稿では, 一連の弱い「外乱検知器」を, 反復的に単一の強みに結合する新しい外乱検出フレームワークを提案する。
自己表現の残余は、次の弱い外れ値検出器を学ぶために次の段階で使用される。
画像および話者データセットに対する実験結果は、最先端のスパースおよび低ランクのアウトレイラ検出方法に対して、その優位性を示す。
- 参考スコア(独自算出の注目度): 11.96739972748918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many methods based on sparse and low-rank representation been developed along
with guarantees of correct outlier detection. Self-representation states that a
point in a subspace can always be expressed as a linear combination of other
points in the subspace. A suitable Markov Chain can be defined on the
self-representation and it allows us to recognize the difference between
inliers and outliers. However, the reconstruction error of self-representation
that is still informative to detect outlier detection, is neglected.Inspired by
the gradient boosting, in this paper, we propose a new outlier detection
framework that combines a series of weak "outlier detectors" into a single
strong one in an iterative fashion by constructing multi-pass
self-representation. At each stage, we construct a self-representation based on
elastic-net and define a suitable Markov Chain on it to detect outliers. The
residual of the self-representation is used for the next stage to learn the
next weaker outlier detector. Such a stage will repeat many times. And the
final decision of outliers is generated by the previous all results.
Experimental results on image and speaker datasets demonstrate its superiority
with respect to state-of-the-art sparse and low-rank outlier detection methods.
- Abstract(参考訳): スパースとローランクの表現に基づく多くの手法が、正しい外れ値検出の保証とともに開発された。
自己表現は、部分空間内の点が常に部分空間内の他の点の線型結合として表現できることを意味する。
適切なマルコフ連鎖は自己表現で定義することができ、不整数と外れ値の違いを認識することができる。
しかし,不整合検出にはまだ意味のある自己表現の復元誤差は無視され,勾配の上昇に触発されて,複数の弱い「外部検出」を反復的に一つの強みに結合する新しい外部検出フレームワークが提案される。
各段階では,elastic-netに基づく自己表現を構築し,その上で適切なマルコフ連鎖を定義して異常値を検出する。
自己表現の残余は、次の弱い外れ値検出器を学ぶために次の段階で使用される。
そのような舞台は何度も繰り返される。
そして、最終決定は、前回のすべての結果によって生成される。
画像および話者データセットにおける実験結果は、最先端のスパースおよび低ランクの異常検出法においてその優位性を示している。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Rethinking Unsupervised Outlier Detection via Multiple Thresholding [15.686139522490189]
本稿では,既存のスコアリング手法を進化させるために,マルチしきい値(Multi-T)モジュールを提案する。
これにより、2つのしきい値が生成され、不正なターゲットデータセットからインレーヤとアウトレーヤを分離する。
実験により,Multi-Tが提案したアウトリースコアリング法を大幅に改善できることが確認された。
論文 参考訳(メタデータ) (2024-07-07T14:09:50Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Do We Really Need to Learn Representations from In-domain Data for
Outlier Detection? [6.445605125467574]
2段階のフレームワークに基づく手法は、このタスクで最先端のパフォーマンスを達成する。
我々は,各外乱検出タスクに対して,異なる表現を訓練するコストが高いことを避ける可能性を探る。
実験では, 従来の2段階法と比較して, 様々な外乱検出ベンチマークにおいて, 競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2021-05-19T17:30:28Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Anomaly Detection based on Zero-Shot Outlier Synthesis and Hierarchical
Feature Distillation [2.580765958706854]
合成生成された異常は、そのような不適切なデータに対する解決策である。
Inliersの特徴記述子を蒸留する2階層階層型潜在空間表現を提案する。
トレーニングデータの外側にあるものを,合成外乱発生器として選択する。
論文 参考訳(メタデータ) (2020-10-10T23:34:02Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。