論文の概要: Explainable Deep Convolutional Multi-Type Anomaly Detection
- arxiv url: http://arxiv.org/abs/2511.11165v1
- Date: Fri, 14 Nov 2025 11:04:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.549062
- Title: Explainable Deep Convolutional Multi-Type Anomaly Detection
- Title(参考訳): 説明可能な深部畳み込み型多型異常検出
- Authors: Alex George, Lyudmila Mihaylova, Sean Anderson,
- Abstract要約: ほとんどの説明可能な異常検出法は、しばしば異常を識別するが、異常の種類を区別する能力は欠如している。
提案するMultiTypeFCDDは,説明可能な多型異常検出のための実用的な代替手段として設計された,シンプルで軽量な畳み込みフレームワークである。
提案手法をReal-IADデータセット上で評価し,最先端の複雑なモデルと競合する結果をもたらす。
- 参考スコア(独自算出の注目度): 0.3845204730009788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most explainable anomaly detection methods often identify anomalies but lack the capability to differentiate the type of anomaly. Furthermore, they often require the costly training and maintenance of separate models for each object category. The lack of specificity is a significant research gap, as identifying the type of anomaly (e.g., "Crack" vs. "Scratch") is crucial for accurate diagnosis that facilitates cost-saving operational decisions across diverse application domains. While some recent large-scale Vision-Language Models (VLMs) have begun to address this, they are computationally intensive and memory-heavy, restricting their use in real-time or embedded systems. We propose MultiTypeFCDD, a simple and lightweight convolutional framework designed as a practical alternative for explainable multi-type anomaly detection. MultiTypeFCDD uses only image-level labels to learn and produce multi-channel heatmaps, where each channel is trained to correspond to a specific anomaly type. The model functions as a single, unified framework capable of differentiating anomaly types across multiple object categories, eliminating the need to train and manage separate models for each object category. We evaluated our proposed method on the Real-IAD dataset and it delivers results competitive with state-of-the-art complex models at significantly reduced parametric load and inference times. This makes it a highly practical and viable solution for real-world applications where computational resources are tightly constrained.
- Abstract(参考訳): ほとんどの説明可能な異常検出法は、しばしば異常を識別するが、異常の種類を区別する能力は欠如している。
さらに、それらはしばしば、各オブジェクトカテゴリごとに別々のモデルのコストのかかるトレーニングとメンテナンスを必要とします。
特異性の欠如は、さまざまなアプリケーションドメインにわたるコスト削減運用上の決定を容易にする正確な診断には、異常の種類(例: "Crack" 対 "Scratch" など)を特定することが不可欠である、という大きな研究ギャップである。
最近の大規模ビジョン・ランゲージ・モデル(VLM)はこの問題に対処し始めているが、計算集約的でメモリ重大であり、リアルタイムシステムや組み込みシステムでの使用を制限している。
提案するMultiTypeFCDDは,説明可能な多型異常検出のための実用的な代替手段として設計された,シンプルで軽量な畳み込みフレームワークである。
MultiTypeFCDDは、画像レベルのラベルのみを使用して、各チャネルが特定の異常タイプに対応するように訓練されたマルチチャネルヒートマップを学習し、生成する。
モデルは単一の統一されたフレームワークとして機能し、複数のオブジェクトカテゴリにまたがる異常な型を識別し、各オブジェクトカテゴリごとに別々のモデルをトレーニングおよび管理する必要がなくなる。
我々は,提案手法をReal-IADデータセット上で評価し,パラメトリック負荷と推定時間を大幅に削減して,最先端の複雑なモデルと競合する結果を提供する。
これにより、計算資源が厳しく制約された現実世界のアプリケーションにとって、非常に実用的で実行可能なソリューションとなる。
関連論文リスト
- CLIP Meets Diffusion: A Synergistic Approach to Anomaly Detection [49.11819337853632]
異常検出は、異常の定義の曖昧さ、異常型の多様性、トレーニングデータの不足による複雑な問題である。
識別的基盤モデルと生成的基礎モデルの両方を活用するCLIPfusionを提案する。
本手法は, 異常検出の多面的課題に対処する上で, マルチモーダル・マルチモデル融合の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-13T13:30:15Z) - Learning Multi-view Multi-class Anomaly Detection [10.199404082194947]
MVMCAD(Multi-View Multi-Class Anomaly Detection Model)を導入し、複数のビューからの情報を統合して異常を正確に識別する。
具体的には、凍結エンコーダの前にプリエンコーダの事前拡張機構を追加する半凍結エンコーダを提案する。
AAM(Anomaly Amplification Module)は、グローバルトークンのインタラクションをモデル化し、通常のリージョンを抑圧する。
論文 参考訳(メタデータ) (2025-04-30T03:59:58Z) - MLAD: A Unified Model for Multi-system Log Anomaly Detection [35.68387377240593]
複数のシステムにまたがる意味的関係推論を組み込んだ新しい異常検出モデルMLADを提案する。
具体的には、Sentence-bertを用いてログシーケンス間の類似性を捉え、それらを高次元の学習可能な意味ベクトルに変換する。
我々は,各キーワードのシーケンスにおける意義を識別し,マルチシステムデータセットの全体分布をモデル化するために,アテンション層の公式を改訂する。
論文 参考訳(メタデータ) (2024-01-15T12:51:13Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - mixed attention auto encoder for multi-class industrial anomaly
detection [2.8519768339207356]
単一モデルを用いたマルチクラス異常検出を実現するために,MAAE (Mixed-attention Auto Encoder) を提案する。
異なるカテゴリーの分布パターンの多様さによる性能劣化を軽減するために,空間的注意とチャネル的注意を用いた。
MAAEは、最先端の手法と比較して、ベンチマークデータセットで顕著なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-09-22T08:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。