論文の概要: FADE: Few-shot/zero-shot Anomaly Detection Engine using Large Vision-Language Model
- arxiv url: http://arxiv.org/abs/2409.00556v1
- Date: Sat, 31 Aug 2024 23:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 13:55:44.375656
- Title: FADE: Few-shot/zero-shot Anomaly Detection Engine using Large Vision-Language Model
- Title(参考訳): FADE:大型ビジョンランゲージモデルを用いたFew-shot/ゼロショット異常検出エンジン
- Authors: Yuanwei Li, Elizaveta Ivanova, Martins Bruveris,
- Abstract要約: 製造業界における品質検査には,少ないショット・ゼロショット異常検出が重要である。
視覚言語CLIPモデルを利用したFew-shot/zero-shot Anomaly Engine Detection (FADE)を提案する。
FADEは、ゼロショットで89.6%(91.5%)、ノーマルショットで95.4%(97.5%)の異常セグメンテーションにおいて、他の最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 0.9226774742769024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic image anomaly detection is important for quality inspection in the manufacturing industry. The usual unsupervised anomaly detection approach is to train a model for each object class using a dataset of normal samples. However, a more realistic problem is zero-/few-shot anomaly detection where zero or only a few normal samples are available. This makes the training of object-specific models challenging. Recently, large foundation vision-language models have shown strong zero-shot performance in various downstream tasks. While these models have learned complex relationships between vision and language, they are not specifically designed for the tasks of anomaly detection. In this paper, we propose the Few-shot/zero-shot Anomaly Detection Engine (FADE) which leverages the vision-language CLIP model and adjusts it for the purpose of industrial anomaly detection. Specifically, we improve language-guided anomaly segmentation 1) by adapting CLIP to extract multi-scale image patch embeddings that are better aligned with language and 2) by automatically generating an ensemble of text prompts related to industrial anomaly detection. 3) We use additional vision-based guidance from the query and reference images to further improve both zero-shot and few-shot anomaly detection. On the MVTec-AD (and VisA) dataset, FADE outperforms other state-of-the-art methods in anomaly segmentation with pixel-AUROC of 89.6% (91.5%) in zero-shot and 95.4% (97.5%) in 1-normal-shot. Code is available at https://github.com/BMVC-FADE/BMVC-FADE.
- Abstract(参考訳): 製造業界における品質検査において,自動画像異常検出が重要である。
通常の教師なしの異常検出アプローチでは、通常のサンプルのデータセットを使用して、各オブジェクトクラスのモデルをトレーニングする。
しかし、より現実的な問題は、ゼロまたは少数のサンプルが利用可能であるゼロ/フェーショット異常検出である。
これにより、オブジェクト固有のモデルのトレーニングが困難になる。
近年, 様々な下流タスクにおいて, 強烈なゼロショット性能を示す基礎概念言語モデルが提案されている。
これらのモデルは視覚と言語の間の複雑な関係を学習してきたが、異常検出のタスクのために特別に設計されたものではない。
本稿では,視覚言語CLIPモデルを利用したFew-shot/zero-shot Anomaly Detection Engine (FADE)を提案する。
具体的には、言語誘導型異常セグメンテーションを改善する。
1 言語とより整合したマルチスケールイメージパッチ埋め込みの抽出にCLIPを適用する。
2)産業異常検出に関連するテキストプロンプトのアンサンブルを自動的に生成する。
3)ゼロショットと少数ショットの異常検出の両方を改善するために,クエリと参照画像からの視覚に基づくガイダンスを付加する。
MVTec-AD(およびVisA)データセットでは、FADEは非正規ショットで89.6%(91.5%)、95.4%(97.5%)の画素AUROCで異常セグメンテーションにおける他の最先端の手法よりも優れている。
コードはhttps://github.com/BMVC-FADE/BMVC-FADEで入手できる。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - CableInspect-AD: An Expert-Annotated Anomaly Detection Dataset [14.246172794156987]
$textitCableInspect-AD$は、カナダの公共ユーティリティであるHydro-Qu'ebecのドメインエキスパートによって作成、注釈付けされた高品質なデータセットである。
このデータセットには、現実世界の異常に挑戦する高解像度の画像が含まれており、さまざまな重度レベルの欠陥をカバーしている。
モデルの性能を評価するために,クロスバリデーションに基づく包括的評価プロトコルを提案する。
論文 参考訳(メタデータ) (2024-09-30T14:50:13Z) - Towards Zero-shot Point Cloud Anomaly Detection: A Multi-View Projection Framework [11.576062442738273]
我々は、事前訓練されたビジョンランゲージモデル(VLM)を利用して異常を検出する、Multi-View Projection(MVP)フレームワークを紹介する。
MVPは、クラウドデータをマルチビューの深度イメージに投影することで、ポイントクラウド異常検出をイメージ異常検出に変換する。
本稿では、これらのVLMを微調整するための学習可能な視覚的および適応的テキストプロンプトの統合を提案する。
論文 参考訳(メタデータ) (2024-09-20T02:30:33Z) - FiLo: Zero-Shot Anomaly Detection by Fine-Grained Description and High-Quality Localization [31.854923603517264]
本稿では,新しいゼロショット異常検出法であるFiLoを提案する。
FiLoは、適応学習されたFG-Des(FG-Des)と位置強調された高品質なローカライゼーション(HQ-Loc)の2つのコンポーネントから構成される。
MVTecやVisAのようなデータセットの実験結果から、FiLoは検出とローカライゼーションの両方においてZSADの性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-04-21T14:22:04Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [30.679012320439625]
AnomalyCLIPはオブジェクトに依存しないテキストを学習し、画像の一般的な正規性と異常をキャプチャする。
非常に多様なクラスセマンティクスのデータセットにおける異常の検出とセグメンテーションにおいて、優れたゼロショット性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T10:03:49Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - NVAE-GAN Based Approach for Unsupervised Time Series Anomaly Detection [19.726089445453734]
時系列異常検出は、多くの業界で一般的だが難しい課題である。
実世界から収集されたノイズデータから,時系列の異常を高精度に検出することは困難である。
我々は異常検出モデルを提案する:時系列から画像VAE (T2IVAE)
論文 参考訳(メタデータ) (2021-01-08T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。