論文の概要: UniVAD: A Training-free Unified Model for Few-shot Visual Anomaly Detection
- arxiv url: http://arxiv.org/abs/2412.03342v2
- Date: Thu, 05 Dec 2024 03:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 11:19:24.712786
- Title: UniVAD: A Training-free Unified Model for Few-shot Visual Anomaly Detection
- Title(参考訳): UniVAD:Few-shot Visual Anomaly Detectionのためのトレーニング不要の統一モデル
- Authors: Zhaopeng Gu, Bingke Zhu, Guibo Zhu, Yingying Chen, Ming Tang, Jinqiao Wang,
- Abstract要約: 本稿では,様々な領域にまたがる異常を検出できるVAD法であるUniVADを提案する。
UniVADは、これまで見つからなかったオブジェクトの異常を検出するために、テスト中の参照として通常のサンプルをほとんど必要としない。
産業、論理、医療の分野にまたがる9つのデータセットの実験を行い、UniVADが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 28.994585945398754
- License:
- Abstract: Visual Anomaly Detection (VAD) aims to identify abnormal samples in images that deviate from normal patterns, covering multiple domains, including industrial, logical, and medical fields. Due to the domain gaps between these fields, existing VAD methods are typically tailored to each domain, with specialized detection techniques and model architectures that are difficult to generalize across different domains. Moreover, even within the same domain, current VAD approaches often follow a "one-category-one-model" paradigm, requiring large amounts of normal samples to train class-specific models, resulting in poor generalizability and hindering unified evaluation across domains. To address this issue, we propose a generalized few-shot VAD method, UniVAD, capable of detecting anomalies across various domains, such as industrial, logical, and medical anomalies, with a training-free unified model. UniVAD only needs few normal samples as references during testing to detect anomalies in previously unseen objects, without training on the specific domain. Specifically, UniVAD employs a Contextual Component Clustering ($C^3$) module based on clustering and vision foundation models to segment components within the image accurately, and leverages Component-Aware Patch Matching (CAPM) and Graph-Enhanced Component Modeling (GECM) modules to detect anomalies at different semantic levels, which are aggregated to produce the final detection result. We conduct experiments on nine datasets spanning industrial, logical, and medical fields, and the results demonstrate that UniVAD achieves state-of-the-art performance in few-shot anomaly detection tasks across multiple domains, outperforming domain-specific anomaly detection models. The code will be made publicly available.
- Abstract(参考訳): 視覚異常検出(VAD)は、正常なパターンから外れた画像中の異常サンプルを識別することを目的としており、産業、論理、医療など複数の領域をカバーする。
これらのフィールド間のドメインギャップのため、既存のVADメソッドは一般的に各ドメインに合わせて調整され、特殊な検出技術と異なるドメインをまたいだ一般化が難しいモデルアーキテクチャを持つ。
さらに、同じドメイン内であっても、現在のVADアプローチは"1カテゴリ1モデル"のパラダイムに従うことが多く、クラス固有のモデルをトレーニングするために大量の正規サンプルを必要とするため、一般化性が低下し、ドメイン全体での統一的な評価が妨げられる。
そこで本研究では, 産業, 論理学, 医学などの領域にまたがる異常を, トレーニング不要の統一モデルで検出できる, 一般化された連写型VAD法UniVADを提案する。
UniVADは、未確認のオブジェクトの異常を検出するために、特定のドメインをトレーニングすることなく、テスト中に参照として通常のサンプルをほとんど必要としない。
特に、UniVADでは、クラスタリングとビジョンファウンデーションモデルに基づくコンテキストコンポーネントクラスタリング(C^3$)モジュールを使用して、イメージ内のコンポーネントを正確にセグメンテーションし、Component-Aware Patch Matching (CAPM)とGraph-Enhanced Component Modeling (GECM)モジュールを使用して、さまざまなセマンティックレベルで異常を検出し、最終的な検出結果を生成する。
産業、論理、医療の分野にまたがる9つのデータセットの実験を行い、UniVADは複数のドメインにまたがる数ショットの異常検出タスクにおいて、最先端のパフォーマンスを達成し、ドメイン固有の異常検出モデルより優れていることを示した。
コードは公開されます。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - GM-DF: Generalized Multi-Scenario Deepfake Detection [49.072106087564144]
既存の偽造検出は、通常、単一のドメインでのトレーニングモデルのパラダイムに従う。
本稿では,複数の顔偽造検出データセットを共同で訓練した場合のディープフェイク検出モデルの一般化能力について詳しく検討する。
論文 参考訳(メタデータ) (2024-06-28T17:42:08Z) - Prior Normality Prompt Transformer for Multi-class Industrial Image Anomaly Detection [6.865429486202104]
マルチクラス異常検出のためのPNPT(Presideor Normality Prompt Transformer)を導入する。
PNPTは戦略的に通常の意味論を取り入れ、「アイデンティティマッピング」問題を緩和する。
これにより、事前の正規性プロンプトを再構築プロセスに統合し、二重ストリームモデルを生成する。
論文 参考訳(メタデータ) (2024-06-17T13:10:04Z) - Absolute-Unified Multi-Class Anomaly Detection via Class-Agnostic Distribution Alignment [27.375917265177847]
教師なし異常検出(UAD)メソッドは、各オブジェクトカテゴリごとに別々のモデルを構築する。
近年の研究では、複数のクラス、すなわちモデル統一 UAD に対する統一モデルのトレーニングが提案されている。
我々は,クラス情報,すなわちtextitabsolute-unified UADを使わずに,マルチクラス異常検出に対処する,シンプルかつ強力な手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T15:50:52Z) - Toward Generalist Anomaly Detection via In-context Residual Learning with Few-shot Sample Prompts [25.629973843455495]
Generalist Anomaly Detection (GAD)は、ターゲットデータにさらなるトレーニングを加えることなく、さまざまなアプリケーションドメインからさまざまなデータセットの異常を検出するために一般化可能な、単一の検出モデルをトレーニングすることを目的としている。
InCTRLと呼ばれるGADのための文脈内残差学習モデルを学習する新しい手法を提案する。
InCTRLは最高のパフォーマーであり、最先端の競合手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-03-11T08:07:46Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [30.679012320439625]
AnomalyCLIPはオブジェクトに依存しないテキストを学習し、画像の一般的な正規性と異常をキャプチャする。
非常に多様なクラスセマンティクスのデータセットにおける異常の検出とセグメンテーションにおいて、優れたゼロショット性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T10:03:49Z) - Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and
Localization [64.39761523935613]
本稿では,画像中の異常を同時検出・ローカライズするPatch Distribution Modeling, PaDiMを提案する。
PaDiMは、パッチの埋め込みに事前訓練された畳み込みニューラルネットワーク(CNN)を使用している。
また、CNNの異なるセマンティックレベル間の相関を利用して、異常のローカライズも改善している。
論文 参考訳(メタデータ) (2020-11-17T17:29:18Z) - Anomaly Detection with Domain Adaptation [5.457279006229213]
この問題を解決するために,不変表現異常検出(IRAD)を提案する。
抽出は、ソース固有のエンコーダやジェネレータと共に訓練されたクロスドメインエンコーダによって達成される。
我々は、桁画像データセット(MNIST、USPS、SVHN)とオブジェクト認識データセット(Office-Home)に基づいて、IRADを広範囲に評価する。
論文 参考訳(メタデータ) (2020-06-05T21:05:19Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。