論文の概要: CE-FAM: Concept-Based Explanation via Fusion of Activation Maps
- arxiv url: http://arxiv.org/abs/2509.23849v1
- Date: Sun, 28 Sep 2025 12:40:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.48554
- Title: CE-FAM: Concept-Based Explanation via Fusion of Activation Maps
- Title(参考訳): CE-FAM: 活性化マップの融合による概念に基づく説明
- Authors: Michihiro Kuroki, Toshihiko Yamasaki,
- Abstract要約: 活性化マップ(CE-FAM)の融合による概念ベース説明
本稿では,CE-FAM(Fusion of Activation Maps)による概念ベース説明法を提案する。
提案手法は,注釈付きデータセットを必要とせず,任意の概念を扱うためにVLM知識を活用しながら,概念領域とそのコントリビューションを識別するための一般的なフレームワークを提供する。
- 参考スコア(独自算出の注目度): 29.496537151017616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although saliency maps can highlight important regions to explain the reasoning behind image classification in artificial intelligence (AI), the meaning of these regions is left to the user's interpretation. In contrast, conceptbased explanations decompose AI predictions into humanunderstandable concepts, clarifying their contributions. However, few methods can simultaneously reveal what concepts an image classifier learns, which regions are associated with them, and how they contribute to predictions. We propose a novel concept-based explanation method, Concept-based Explanation via Fusion of Activation Maps (CE-FAM). It employs a branched network that shares activation maps with an image classifier and learns to mimic the embeddings of a Vision and Language Model (VLM). The branch network predicts concepts in an image, and their corresponding regions are represented by a weighted sum of activation maps, with weights given by the gradients of the concept prediction scores. Their contributions are quantified based on their impact on the image classification score. Our method provides a general framework for identifying the concept regions and their contributions while leveraging VLM knowledge to handle arbitrary concepts without requiring an annotated dataset. Furthermore, we introduce a novel evaluation metric to assess the accuracy of the concept regions. Our qualitative and quantitative evaluations demonstrate our method outperforms existing approaches and excels in zero-shot inference for unseen concepts.
- Abstract(参考訳): 精度マップは、人工知能(AI)における画像分類の背後にある理由を説明するために重要な領域をハイライトすることができるが、これらの領域の意味はユーザーの解釈に委ねられている。
対照的に、概念に基づく説明はAIの予測を人間の理解可能な概念に分解し、その貢献を明確にする。
しかし、画像分類器がどのような概念を学ぶか、どの領域に関連付けられているか、どのように予測に寄与するかを同時に明らかにできる手法はほとんどない。
本稿では,CE-FAM(Fusion of Activation Maps)による概念ベース説明法を提案する。
イメージ分類器とアクティベーションマップを共有し、ビジョン・アンド・ランゲージ・モデル(VLM)の埋め込みを模倣することを学ぶ。
分岐ネットワークは、画像内の概念を予測し、それらの領域は、概念予測スコアの勾配によって与えられる重み付き活性化マップの合計で表現される。
コントリビューションは、画像分類スコアへの影響に基づいて定量化される。
提案手法は,注釈付きデータセットを必要とせず,任意の概念を扱うためにVLM知識を活用しながら,概念領域とそのコントリビューションを識別するための一般的なフレームワークを提供する。
さらに,概念領域の精度を評価するための新しい評価基準を導入する。
定性的かつ定量的な評価は、既存の手法よりも優れており、目に見えない概念に対するゼロショット推論が優れていることを示す。
関連論文リスト
- Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models [56.35484513848296]
FADE(Fine grained Attenuation for Diffusion Erasure)は、テキストから画像への生成モデルのための非学習アルゴリズムである。
関連する概念に最小限の影響で目標概念を排除し、最先端の手法よりも保持性能が12%向上した。
論文 参考訳(メタデータ) (2025-03-25T15:49:48Z) - Concept-Based Explainable Artificial Intelligence: Metrics and Benchmarks [0.0]
概念に基づく説明手法は、機械学習モデルの解釈可能性を改善することを目的としている。
本稿では,大域的重要度,概念存在度,概念位置度という3つの指標を提案する。
多くの場合、ポストホックCBMによって決定される最も重要な概念でさえ、入力画像には存在しないことが示される。
論文 参考訳(メタデータ) (2025-01-31T16:32:36Z) - Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Knowledge graphs for empirical concept retrieval [1.06378109904813]
概念に基づく説明可能なAIは、あるユーザの前提における複雑なモデルの理解を改善するツールとして期待されている。
本稿では,テキスト領域と画像領域の両方でユーザ主導のデータ収集を行うワークフローを提案する。
我々は,概念アクティベーションベクトル(CAV)と概念アクティベーション領域(CAR)の2つの概念ベース説明可能性手法を用いて,検索した概念データセットをテストする。
論文 参考訳(メタデータ) (2024-04-10T13:47:22Z) - Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Rewrite Caption Semantics: Bridging Semantic Gaps for
Language-Supervised Semantic Segmentation [100.81837601210597]
本研究では,事前学習データにおける視覚的意味論とテキスト的意味論のギャップを埋めるための概念キュレーション(CoCu)を提案する。
CoCuは、最高にゼロショット転送性能を達成し、言語教師ありセグメンテーションベースラインを大きなマージンで大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-24T00:05:39Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。