論文の概要: Explicit Boundary Guided Semi-Push-Pull Contrastive Learning for Better
Anomaly Detection
- arxiv url: http://arxiv.org/abs/2207.01463v1
- Date: Mon, 4 Jul 2022 14:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:10:05.149782
- Title: Explicit Boundary Guided Semi-Push-Pull Contrastive Learning for Better
Anomaly Detection
- Title(参考訳): 異常検出のための明示的境界誘導半プッシュ・プルコントラスト学習
- Authors: Xincheng Yao and Chongyang Zhang and Ruoqi Li
- Abstract要約: 異常検出アルゴリズムは主に、正常なサンプルの分布をモデル化し、異常を外れ値として扱うことに焦点を当てている。
そこで本稿では,境界案内型半プッシュ・プル学習戦略を慎重に設計した,既存のいくつかの異常点を活用することを目的としている。
画像レベルのAUROCは98.8%,画素レベルのAUROCは99.4%であった。
- 参考スコア(独自算出の注目度): 8.372636435597443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of anomaly detection algorithms are mainly focused on modeling the
distribution of normal samples and treating anomalies as outliers. However, the
discriminative performance of the model may be insufficient due to the lack of
knowledge about anomalies. Thus, anomalies should be exploited as possible.
However, utilizing a few known anomalies during training may cause another
issue that model may be biased by those known anomalies and fail to generalize
to unseen anomalies. In this paper, we aim to exploit a few existing anomalies
with a carefully designed explicit boundary guided semi-push-pull learning
strategy, which can enhance discriminability while mitigating bias problem
caused by insufficient known anomalies. Our model is based on two core designs:
First, finding one explicit separating boundary as the guidance for further
contrastive learning. Specifically, we employ normalizing flow to learn normal
feature distribution, then find an explicit separating boundary close to the
distribution edge. The obtained explicit and compact separating boundary only
relies on the normal feature distribution, thus the bias problem caused by a
few known anomalies can be mitigated. Second, learning more discriminative
features under the guidance of the explicit separating boundary. A boundary
guided semi-push-pull loss is developed to only pull the normal features
together while pushing the abnormal features apart from the separating boundary
beyond a certain margin region. In this way, our model can form a more explicit
and discriminative decision boundary to achieve better results for known and
also unseen anomalies, while also maintaining high training efficiency.
Extensive experiments on the widely-used MVTecAD benchmark show that the
proposed method achieves new state-of-the-art results, with the performance of
98.8% image-level AUROC and 99.4% pixel-level AUROC.
- Abstract(参考訳): 異常検出アルゴリズムの大部分は、通常サンプルの分布をモデル化し、異常を外れ値として扱うことに焦点を当てている。
しかし、異常に関する知識が不足しているため、モデルの識別性能は不十分である可能性がある。
したがって、異常を可能な限り利用すべきである。
しかし、トレーニング中にいくつかの既知の異常を利用すると、モデルが既知の異常に偏り、目に見えない異常に一般化できないという別の問題を引き起こす可能性がある。
本稿では,不十分な既知の異常に起因するバイアス問題を軽減しつつ,識別性を高めるために,事前設計した明示的な境界誘導セミプッシュプル学習戦略を用いて,既存の異常を生かすことを目的とする。
私たちのモデルは2つのコア設計に基づいています。まず第一に、より対照的な学習のためのガイダンスとして、明確な分離境界を見つけます。
具体的には,正規化フローを用いて通常の特徴分布を学習し,分布エッジに近い明確な分離境界を求める。
得られた明示的かつコンパクトな分離境界は通常の特徴分布にのみ依存するため、いくつかの既知の異常に起因するバイアス問題を緩和することができる。
第二に、明確な分離境界の下でより差別的な特徴を学ぶ。
境界ガイド付きセミプッシュ・プル損失は、通常の特徴を一つにまとめるだけで、その異常特徴を分離境界から特定の辺縁領域を超えて押し出す。
このようにして、我々のモデルはより明示的で差別的な決定境界を形成し、未知の異常に対してより良い結果を得ることができ、同時に高い訓練効率を維持することができる。
広範に使用されているMVTecADベンチマークの大規模な実験により、提案手法は98.8%の画像レベルのAUROCと99.4%ピクセルレベルのAUROCのパフォーマンスで、新しい最先端の結果を達成している。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Anomaly Heterogeneity Learning for Open-set Supervised Anomaly Detection [26.08881235151695]
オープンセット型教師付き異常検出(OSAD)は、トレーニング中に見られたいくつかの異常クラスのサンプルを利用して、見えない異常を検出することを目的としている。
異種不均一分布の多様集合をシミュレートする新しいアプローチ,すなわちAHL(Anomaly Heterogeneity Learning)を導入する。
AHL can 1) は, 目に見える異常や見えない異常の検出において, 最先端のOSADモデルを大幅に強化し, 2) 新たな領域の異常を効果的に一般化することを示した。
論文 参考訳(メタデータ) (2023-10-19T14:47:11Z) - SaliencyCut: Augmenting Plausible Anomalies for Anomaly Detection [24.43321988051129]
そこで本稿では,SaliencyCutという新たなデータ拡張手法を提案する。
次に、各サンプルから微細な異常特徴を抽出し評価するために、異常学習ヘッドにパッチワイド残余モジュールを新規に設計する。
論文 参考訳(メタデータ) (2023-06-14T08:55:36Z) - AD-MERCS: Modeling Normality and Abnormality in Unsupervised Anomaly
Detection [12.070251470948772]
本稿では,AD-MERCSについて述べる。
AD-MERCSは、パターンが存在するインスタンス空間の複数の部分空間を特定し、これらのパターンから逸脱するインスタンスを特徴付ける条件を特定する。
実験により、この正規性と異常の両方のモデリングにより、幅広い種類の異常に対して異常検出器が動作できることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:09:14Z) - Prototypical Residual Networks for Anomaly Detection and Localization [80.5730594002466]
本稿では,PRN(Prototypeal Residual Network)というフレームワークを提案する。
PRNは、異常領域の分割マップを正確に再構築するために、異常領域と正常パターンの間の様々なスケールとサイズの特徴的残差を学習する。
異常を拡大・多様化するために,見かけの相違と外観の相違を考慮に入れた様々な異常発生戦略を提示する。
論文 参考訳(メタデータ) (2022-12-05T05:03:46Z) - Catching Both Gray and Black Swans: Open-set Supervised Anomaly
Detection [90.32910087103744]
ラベル付き異常な例は、多くの現実世界のアプリケーションでよく見られる。
これらの異常例は、アプリケーション固有の異常について貴重な知識を提供する。
トレーニング中に見られる異常は、可能なあらゆる種類の異常を説明できないことが多い。
本稿では,オープンセット型教師付き異常検出に取り組む。
論文 参考訳(メタデータ) (2022-03-28T05:21:37Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Toward Deep Supervised Anomaly Detection: Reinforcement Learning from
Partially Labeled Anomaly Data [150.9270911031327]
本稿では,一部のラベル付き異常事例と大規模ラベルなしデータセットを用いた異常検出の問題点について考察する。
既存の関連手法は、通常、一連の異常にまたがらない限られた異常例にのみ適合するか、ラベルのないデータから教師なしの学習を進めるかのいずれかである。
そこで本研究では,ラベル付きおよびラベルなし両方の異常の検出をエンドツーエンドに最適化する,深層強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-15T03:05:39Z) - Deep Weakly-supervised Anomaly Detection [118.55172352231381]
ペアワイズ関係予測ネットワーク(PReNet)は、ペアワイズ関係の特徴と異常スコアを学習する。
PReNetは、学習したペアの異常パターンに適合する見知らぬ異常を検出できる。
12の実世界のデータセットに対する実証的な結果から、PReNetは目に見えない異常や異常を検知する9つの競合する手法を著しく上回っている。
論文 参考訳(メタデータ) (2019-10-30T00:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。