論文の概要: AnomalyDINO: Boosting Patch-based Few-shot Anomaly Detection with DINOv2
- arxiv url: http://arxiv.org/abs/2405.14529v1
- Date: Thu, 23 May 2024 13:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 15:05:17.847890
- Title: AnomalyDINO: Boosting Patch-based Few-shot Anomaly Detection with DINOv2
- Title(参考訳): AnomalyDINO:DINOv2を用いたパッチベースのFew-shot異常検出
- Authors: Simon Damm, Mike Laszkiewicz, Johannes Lederer, Asja Fischer,
- Abstract要約: DINOv2をワンショットおよび数ショットの異常検出に適用し、産業応用に焦点をあてる。
提案するビジョンのみのアプローチであるAnomalyDINOは,パッチの類似性に基づいて,画像レベルの異常予測と画素レベルの異常セグメンテーションの両方を可能にする。
その単純さにもかかわらず、AnomalyDINOは1発と数発の異常検出(例えば、MVTec-ADの1発のパフォーマンスを93.1%から96.6%まで押し上げる)で最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 16.69402464709241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in multimodal foundation models have set new standards in few-shot anomaly detection. This paper explores whether high-quality visual features alone are sufficient to rival existing state-of-the-art vision-language models. We affirm this by adapting DINOv2 for one-shot and few-shot anomaly detection, with a focus on industrial applications. We show that this approach does not only rival existing techniques but can even outmatch them in many settings. Our proposed vision-only approach, AnomalyDINO, is based on patch similarities and enables both image-level anomaly prediction and pixel-level anomaly segmentation. The approach is methodologically simple and training-free and, thus, does not require any additional data for fine-tuning or meta-learning. Despite its simplicity, AnomalyDINO achieves state-of-the-art results in one- and few-shot anomaly detection (e.g., pushing the one-shot performance on MVTec-AD from an AUROC of 93.1% to 96.6%). The reduced overhead, coupled with its outstanding few-shot performance, makes AnomalyDINO a strong candidate for fast deployment, for example, in industrial contexts.
- Abstract(参考訳): マルチモーダル基礎モデルの最近の進歩は、数発の異常検出において新しい標準を定めている。
本稿では、高品質な視覚的特徴だけで既存の最先端の視覚言語モデルに対抗できるかどうかを考察する。
我々は、DINOv2をワンショットおよび数ショットの異常検出に適用し、産業応用に焦点をあてることでこれを裏付ける。
このアプローチは既存のテクニックに匹敵するだけでなく、多くの設定でそれらを上回ります。
提案するビジョンのみのアプローチであるAnomalyDINOは,パッチの類似性に基づいて,画像レベルの異常予測と画素レベルの異常セグメンテーションの両方を可能にする。
このアプローチは方法論的にシンプルで、トレーニング不要であるため、微調整やメタ学習のために追加のデータを必要としない。
その単純さにもかかわらず、AnomalyDINOは1発と数発の異常検出(例えば、MVTec-ADの1発のパフォーマンスを93.1%から96.6%まで押し上げる)で最先端の結果を達成した。
オーバーヘッドの削減と、その卓越した数ショットのパフォーマンスが相まって、AnomalyDINOは、例えば工業的コンテキストにおいて、迅速なデプロイメントの強力な候補となっている。
関連論文リスト
- FADE: Few-shot/zero-shot Anomaly Detection Engine using Large Vision-Language Model [0.9226774742769024]
製造業界における品質検査には,少ないショット・ゼロショット異常検出が重要である。
視覚言語CLIPモデルを利用したFew-shot/zero-shot Anomaly Engine Detection (FADE)を提案する。
FADEは、ゼロショットで89.6%(91.5%)、ノーマルショットで95.4%(97.5%)の異常セグメンテーションにおいて、他の最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-08-31T23:05:56Z) - AnoPLe: Few-Shot Anomaly Detection via Bi-directional Prompt Learning with Only Normal Samples [6.260747047974035]
AnoPLeは、異常を事前に知ることなく、異常検出のために設計されたマルチモーダル・プロンプト学習手法である。
AnoPLe は MVTec-AD と VisA で 94.1% と 86.2% Image AUROC をそれぞれ記録した。
論文 参考訳(メタデータ) (2024-08-24T08:41:19Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Don't Miss Out on Novelty: Importance of Novel Features for Deep Anomaly
Detection [64.21963650519312]
異常検出(AD)は、正規性の学習モデルに適合しない観察を識別する重要なタスクである。
本稿では, 入力空間における説明不能な観測として, 説明可能性を用いた新しいAD手法を提案する。
当社のアプローチでは,複数のベンチマークにまたがる新たな最先端性を確立し,さまざまな異常な型を扱う。
論文 参考訳(メタデータ) (2023-10-01T21:24:05Z) - Anomaly Detection via Multi-Scale Contrasted Memory [3.0170109896527086]
マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
論文 参考訳(メタデータ) (2022-11-16T16:58:04Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and
Localization [64.39761523935613]
本稿では,画像中の異常を同時検出・ローカライズするPatch Distribution Modeling, PaDiMを提案する。
PaDiMは、パッチの埋め込みに事前訓練された畳み込みニューラルネットワーク(CNN)を使用している。
また、CNNの異なるセマンティックレベル間の相関を利用して、異常のローカライズも改善している。
論文 参考訳(メタデータ) (2020-11-17T17:29:18Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - OIAD: One-for-all Image Anomaly Detection with Disentanglement Learning [23.48763375455514]
クリーンサンプルのみを用いたアンタングル学習に基づく一対一画像異常検出システムを提案する。
3つのデータセットを用いて実験したところ、OIADは90%以上の異常を検出できる一方で、誤報率も低く抑えられることがわかった。
論文 参考訳(メタデータ) (2020-01-18T09:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。