論文の概要: Exposing Outlier Exposure: What Can Be Learned From Few, One, and Zero
Outlier Images
- arxiv url: http://arxiv.org/abs/2205.11474v1
- Date: Mon, 23 May 2022 17:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:08:46.836218
- Title: Exposing Outlier Exposure: What Can Be Learned From Few, One, and Zero
Outlier Images
- Title(参考訳): 異常な露出を露呈する: 少数、1、ゼロの異常なイメージから何が学べるか
- Authors: Philipp Liznerski, Lukas Ruff, Robert A. Vandermeulen, Billy Joe
Franks, Klaus-Robert M\"uller, and Marius Kloft
- Abstract要約: 専門的なAD学習手法は、実際には多量かつ膨大なデータのコーパスであることを示す。
我々は,この現象を調査し,一級法がトレーニングアウトリージの特定の選択に対してより堅牢であることを明らかにする。
- 参考スコア(独自算出の注目度): 26.283734474660484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally anomaly detection (AD) is treated as an unsupervised problem
utilizing only normal samples due to the intractability of characterizing
everything that looks unlike the normal data. However, it has recently been
found that unsupervised image anomaly detection can be drastically improved
through the utilization of huge corpora of random images to represent
anomalousness; a technique which is known as Outlier Exposure. In this paper we
show that specialized AD learning methods seem actually superfluous and huge
corpora of data expendable. For a common AD benchmark on ImageNet, standard
classifiers and semi-supervised one-class methods trained to discern between
normal samples and just a few random natural images are able to outperform the
current state of the art in deep AD, and only one useful outlier sample is
sufficient to perform competitively. We investigate this phenomenon and reveal
that one-class methods are more robust towards the particular choice of
training outliers. Furthermore, we find that a simple classifier based on
representations from CLIP, a recent foundation model, achieves state-of-the-art
results on CIFAR-10 and also outperforms all previous AD methods on ImageNet
without any training samples (i.e., in a zero-shot setting).
- Abstract(参考訳): 従来の異常検出(AD)は、通常のデータとは異なるものをすべて特徴付けるという難しさのため、通常のサンプルのみを利用する教師なしの問題として扱われる。
しかし,近年,異常性を表すためにランダム画像の膨大なコーパスを用いることにより,教師なし画像の異常検出を劇的に改善できることが判明した。
本稿では,AD学習の専門的手法が実際は多量かつ膨大なデータのコーパスであることを示す。
ImageNetの一般的なADベンチマークでは、標準分類器と、通常のサンプルを識別する半教師付き1クラスメソッドと、ごく少数のランダムな自然画像が、ADの最先端技術よりも優れており、1つの有用な外れ値サンプルだけが競合的に実行可能である。
我々は,この現象を調査し,一級法がトレーニングアウトリージの特定の選択に対してより堅牢であることを明らかにする。
さらに,最近の基盤モデルであるCLIPの表現に基づく単純な分類器が,CIFAR-10の最先端結果を実現し,トレーニングサンプル(ゼロショット設定など)を使わずにImageNet上の従来のADメソッドを全て上回る結果を得た。
関連論文リスト
- Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Zero-Shot Anomaly Detection via Batch Normalization [58.291409630995744]
多くの安全クリティカルなアプリケーションドメインでは、異常検出が重要な役割を果たす。
異常検出器を正常なデータ分布でドリフトに適応させることの課題は、ゼロショットAD技術の開発に繋がった。
ゼロショットバッチレベルのADに対して,適応中心表現(Adaptive Centered Representation, ACR)と呼ばれるシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T18:34:15Z) - Self-supervised Pseudo Multi-class Pre-training for Unsupervised Anomaly
Detection and Segmentation in Medical Images [31.676609117780114]
教師なし異常検出(UAD)法は、正常な(または健康な)画像のみを用いて訓練されるが、テスト中は正常な(または正常な)画像と異常な画像を分類することができる。
コントラスト学習(PMSACL)によるPseudo Multi-class Strong Augmentation(Pseudo Multi-class Strong Augmentation)という,MIA UADアプリケーションのための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-03T04:25:57Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Constrained Contrastive Distribution Learning for Unsupervised Anomaly
Detection and Localisation in Medical Images [23.79184121052212]
UAD(Unsupervised Anomaly Detection)は、通常の(すなわち健康的な)画像でのみ1クラスの分類器を学習する。
異常検出のための制約コントラスト分布学習(Constrained Contrastive Distribution Learning for Anomaly Detection, CCD)を提案する。
本手法は,3種類の大腸内視鏡および底部検診データセットにおいて,最先端のUADアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-03-05T01:56:58Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features [4.25227087152716]
畳み込みネットワークは、任意の自然言語データセットでトレーニングされた場合、同様の低レベルの特徴分布を学習する。
inlier とoutlier の識別的特徴が高いレベルにある場合、異常検出は特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-18T20:56:14Z) - Rethinking Assumptions in Deep Anomaly Detection [26.942031693233183]
以上の結果から,この直感は画像上での深部ADに及ばないことが明らかとなった。
ImageNetの最近のADベンチマークでは、通常のサンプルと数個の(64)ランダムな自然画像の区別を訓練された分類器が、ADの最先端技術よりも優れている。
論文 参考訳(メタデータ) (2020-05-30T19:30:38Z) - Modeling the Distribution of Normal Data in Pre-Trained Deep Features
for Anomaly Detection [2.9864637081333085]
画像中の異常検出(AD)は、標準からかなり逸脱した画像や画像のサブ構造を特定することを指す。
本研究では,大きな自然画像データセット上での識別モデルにより学習された深い特徴表現が,正規性を記述するのに適していることを示す。
論文 参考訳(メタデータ) (2020-05-28T16:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。