論文の概要: Explainable Visual Anomaly Detection via Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2511.20088v1
- Date: Tue, 25 Nov 2025 09:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.370908
- Title: Explainable Visual Anomaly Detection via Concept Bottleneck Models
- Title(参考訳): 概念ボトルネックモデルによる説明可能な視覚異常検出
- Authors: Arianna Stropeni, Valentina Zaccaria, Francesco Borsatti, Davide Dalle Pezze, Manuel Barusco, Gian Antonio Susto,
- Abstract要約: 本稿では,視覚異常検出設定にConcept Bottleneck Models(CBM)を拡張することを提案する。
CBMは、人間の解釈可能な異常の説明を提供し、それらを説明する新しい、より洞察に富んだ方法を提供する。
提案手法であるconcept-Aware Visual Anomaly Detection (CONVAD) は,従来のVAD法に匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 10.62920652801205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Visual Anomaly Detection (VAD) has gained significant attention due to its ability to identify anomalous images using only normal images during training. Many VAD models work without supervision but are still able to provide visual explanations by highlighting the anomalous regions within an image. However, although these visual explanations can be helpful, they lack a direct and semantically meaningful interpretation for users. To address this limitation, we propose extending Concept Bottleneck Models (CBMs) to the VAD setting. By learning meaningful concepts, the network can provide human-interpretable descriptions of anomalies, offering a novel and more insightful way to explain them. Our contributions are threefold: (i) we develop a Concept Dataset to support research on CBMs for VAD; (ii) we improve the CBM architecture to generate both concept-based and visual explanations, bridging semantic and localization interpretability; and (iii) we introduce a pipeline for synthesizing artificial anomalies, preserving the VAD paradigm of minimizing dependence on rare anomalous samples. Our approach, Concept-Aware Visual Anomaly Detection (CONVAD), achieves performance comparable to classic VAD methods while providing richer, concept-driven explanations that enhance interpretability and trust in VAD systems.
- Abstract(参考訳): 近年,視覚異常検出(VAD)は,訓練中の正常画像のみを用いて異常画像を特定する能力によって注目されている。
多くのVADモデルは、監督なしで機能するが、画像内の異常領域を強調して視覚的な説明を提供することができる。
しかし、これらの視覚的説明は役に立つが、ユーザにとって直接的で意味のある解釈が欠けている。
この制限に対処するため、我々は概念ボトルネックモデル(CBM)をVAD設定に拡張することを提案する。
意味のある概念を学習することで、ネットワークは人間の解釈可能な異常の記述を提供し、それらを説明する新しい、より洞察に富んだ方法を提供する。
私たちの貢献は3倍です。
i) VADのためのCBM研究を支援する概念データセットを開発する。
(II)CBMアーキテクチャを改良し、概念的・視覚的説明、意味的・局所的解釈性の両方を生成する。
3) 稀な異常標本への依存を最小限に抑えるため, VADパラダイムを保ち, 人工異常を合成するためのパイプラインを導入する。
我々のアプローチであるconcept-Aware Visual Anomaly Detection (CONVAD)は、従来のVAD手法に匹敵する性能を実現し、よりリッチで概念駆動的な説明を提供することで、VADシステムの解釈性と信頼性を高める。
関連論文リスト
- FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - DCBM: Data-Efficient Visual Concept Bottleneck Models [13.36057999450821]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念をベースとした予測によって、ニューラルネットワークの解釈可能性を高める。
我々は,解釈可能性を維持しつつ,概念生成時の大規模なサンプルサイズの必要性を低減できるデータ効率のCBMを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:04:58Z) - How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - CoLa-DCE -- Concept-guided Latent Diffusion Counterfactual Explanations [2.3083192626377755]
概念誘導型遅延拡散対実例(CoLa-DCE)を紹介する。
CoLa-DCEは、概念選択と空間条件に関する高度な制御を持つ任意の分類器に対して、概念誘導対物を生成する。
我々は,複数の画像分類モデルとデータセットにまたがって,最小化と理解性のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2024-06-03T14:27:46Z) - Visual Concept-driven Image Generation with Text-to-Image Diffusion Model [65.96212844602866]
テキスト・ツー・イメージ(TTI)モデルは複雑なシーンの高解像度画像を生成するという印象的な結果を示した。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - Unveiling the Unseen: A Comprehensive Survey on Explainable Anomaly Detection in Images and Videos [49.07140708026425]
画像やビデオを含む視覚データの異常検出とローカライゼーションは、機械学習や現実世界のアプリケーションにおいて不可欠である。
本稿では,説明可能な2次元視覚異常検出(X-VAD)に焦点を当てた初の包括的調査を行う。
本稿では,その基礎技術によって分類された説明可能な手法の文献レビューを行う。
我々は、将来的な方向性と、説明品質の定量化を含むオープンな問題について議論する。
論文 参考訳(メタデータ) (2023-02-13T20:17:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。