論文の概要: SuperAD: A Training-free Anomaly Classification and Segmentation Method for CVPR 2025 VAND 3.0 Workshop Challenge Track 1: Adapt & Detect
- arxiv url: http://arxiv.org/abs/2505.19750v2
- Date: Tue, 27 May 2025 11:09:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.249603
- Title: SuperAD: A Training-free Anomaly Classification and Segmentation Method for CVPR 2025 VAND 3.0 Workshop Challenge Track 1: Adapt & Detect
- Title(参考訳): SuperAD:CVPR 2025 VAND 3.0ワークショップチャレンジトラック1:適応と検出のためのトレーニング不要な異常分類とセグメンテーション手法
- Authors: Huaiyuan Zhang, Hang Chen, Yu Cheng, Shunyi Wu, Linghao Sun, Linao Han, Zeyu Shi, Lei Qi,
- Abstract要約: SuperADと命名されたDINOv2モデルを用いて特徴抽出に基づく完全トレーニング不要な異常検出とセグメンテーション手法を提案する。
本手法は,MVTec AD 2データセットの両テストセットの競合性を実現する。
- 参考スコア(独自算出の注目度): 17.160007050126403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this technical report, we present our solution to the CVPR 2025 Visual Anomaly and Novelty Detection (VAND) 3.0 Workshop Challenge Track 1: Adapt & Detect: Robust Anomaly Detection in Real-World Applications. In real-world industrial anomaly detection, it is crucial to accurately identify anomalies with physical complexity, such as transparent or reflective surfaces, occlusions, and low-contrast contaminations. The recently proposed MVTec AD 2 dataset significantly narrows the gap between publicly available benchmarks and anomalies found in real-world industrial environments. To address the challenges posed by this dataset--such as complex and varying lighting conditions and real anomalies with large scale differences--we propose a fully training-free anomaly detection and segmentation method based on feature extraction using the DINOv2 model named SuperAD. Our method carefully selects a small number of normal reference images and constructs a memory bank by leveraging the strong representational power of DINOv2. Anomalies are then segmented by performing nearest neighbor matching between test image features and the memory bank. Our method achieves competitive results on both test sets of the MVTec AD 2 dataset.
- Abstract(参考訳): 本稿では,CVPR 2025 Visual Anomaly and Novelty Detection (VAND) 3.0 Workshop Challenge Track 1: Adapt & Detect: Robust Anomaly Detection in Real-World Applicationsを提案する。
実世界の産業異常検出では、透明表面や反射面、閉塞、低コントラスト汚染など、物理的に複雑な異常を正確に識別することが重要である。
最近提案されたMVTec AD 2データセットは、実際の産業環境で見られる公開ベンチマークと異常の間のギャップを著しく狭めている。
このデータセットがもたらす課題 - 複雑で多様な照明条件や大規模な差のある実異常など - に対処するため、我々は、SuperADと命名されたDINOv2モデルを用いた特徴抽出に基づく、完全トレーニング不要な異常検出とセグメンテーション手法を提案する。
本手法では,DINOv2の強い表現力を利用して,少数の参照画像を選択し,メモリバンクを構築する。
次に、テスト画像特徴とメモリバンクとの最も近いマッチングを実行することで、異常をセグメント化する。
本手法は,MVTec AD 2データセットの両テストセットの競合性を実現する。
関連論文リスト
- Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detections [50.343419243749054]
異常検出(AD)は、通常のデータ分布から逸脱を識別する。
本稿では,視覚エンコーダから抽出した画像コンテキストに基づいて,テキストエンコーダのプロンプトを条件付ける手法を提案する。
提案手法は,14のデータセットにおいて,各メトリクスに対して2%から29%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - The MVTec AD 2 Dataset: Advanced Scenarios for Unsupervised Anomaly Detection [3.9682699334026563]
8000以上の高解像度画像を含む8つの異常検出シナリオの集合であるMVTec AD 2を提案する。
従来のデータセットでは考慮されていない、挑戦的で、非常に関係の深い産業検査のユースケースを含んでいる。
我々のデータセットは、実世界の分散シフト下でのメソッドのロバスト性を評価するために、照明条件の変更を伴うテストシナリオを提供する。
論文 参考訳(メタデータ) (2025-03-27T15:41:46Z) - PA-CLIP: Enhancing Zero-Shot Anomaly Detection through Pseudo-Anomaly Awareness [10.364634539199422]
本稿では,背景雑音を低減し,擬似異常に基づくフレームワークによる欠陥検出を向上するゼロショット異常検出手法であるPA-CLIPを紹介する。
提案手法は,グローバルおよびローカルの詳細な情報を収集するためのマルチスケール特徴集約戦略を統合する。
既存のゼロショット法よりも優れており、工業的欠陥検出のための堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-03-03T08:29:27Z) - Exploring Large Vision-Language Models for Robust and Efficient Industrial Anomaly Detection [4.691083532629246]
CLAD(Contrastive Cross-Modal Training)を用いた視覚言語異常検出法を提案する。
CLADは、視覚的特徴とテキスト的特徴をコントラスト学習を用いて共有埋め込み空間に整列する。
CLADは画像レベルの異常検出と画素レベルの異常局所化の両方において最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-01T17:00:43Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Industrial Anomaly Detection and Localization Using Weakly-Supervised Residual Transformers [44.344548601242444]
Weakly-supervised RESidual Transformer (WeakREST) という新しいフレームワークを導入し,高い異常検出精度を実現する。
画素単位の異常局所化タスクをブロック単位の分類問題に再構成する。
弱いラベルと残差に基づく表現との相互作用を処理できるResMixMatchアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-06T08:19:30Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。