論文の概要: Aggregating Local Saliency Maps for Semi-Global Explainable Image Classification
- arxiv url: http://arxiv.org/abs/2506.23247v1
- Date: Sun, 29 Jun 2025 14:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.787786
- Title: Aggregating Local Saliency Maps for Semi-Global Explainable Image Classification
- Title(参考訳): 半言語説明可能な画像分類のための局所塩分マップの集約
- Authors: James Hinns, David Martens,
- Abstract要約: ディープラーニングは画像分類タスクを支配しているが、モデルが予測に到達する方法を理解することは依然として困難である。
多くの研究は、モデルの予測に対する特定のピクセルの影響を可視化するサリエンシマップのような個々の予測の局所的な説明に焦点を当てている。
本稿では,局所的なサリエンシの説明を(半)言語的洞察にまとめる手法であるセグメンツ属性テーブル(SAT)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning dominates image classification tasks, yet understanding how models arrive at predictions remains a challenge. Much research focuses on local explanations of individual predictions, such as saliency maps, which visualise the influence of specific pixels on a model's prediction. However, reviewing many of these explanations to identify recurring patterns is infeasible, while global methods often oversimplify and miss important local behaviours. To address this, we propose Segment Attribution Tables (SATs), a method for summarising local saliency explanations into (semi-)global insights. SATs take image segments (such as "eyes" in Chihuahuas) and leverage saliency maps to quantify their influence. These segments highlight concepts the model relies on across instances and reveal spurious correlations, such as reliance on backgrounds or watermarks, even when out-of-distribution test performance sees little change. SATs can explain any classifier for which a form of saliency map can be produced, using segmentation maps that provide named segments. SATs bridge the gap between oversimplified global summaries and overly detailed local explanations, offering a practical tool for analysing and debugging image classifiers.
- Abstract(参考訳): ディープラーニングは画像分類タスクを支配しているが、モデルが予測に到達する方法を理解することは依然として困難である。
多くの研究は、モデルの予測に対する特定のピクセルの影響を可視化するサリエンシマップのような個々の予測の局所的な説明に焦点を当てている。
しかしながら、繰り返しパターンを特定するためにこれらの説明の多くをレビューすることは不可能であり、グローバルメソッドは多くの場合、重要なローカルな振る舞いを過度に単純化し、見逃す。
そこで本研究では,局所的なサリエンシの説明を(半)言語的洞察にまとめる手法であるSegment Attribution Tables (SATs)を提案する。
SATはイメージセグメント(チワワ語で「目」など)を取り込み、その影響を定量化するためにサリエンシマップを利用する。
これらのセグメントは、モデルがインスタンス間で依存する概念を強調し、バックグラウンドや透かしへの依存など、アウト・オブ・ディストリビューションテストのパフォーマンスがほとんど変化しない場合でも、急激な相関関係を明らかにする。
SATは、名前付きセグメントを提供するセグメンテーションマップを使用して、サリエンシマップの形式を生成できるあらゆる分類器を説明することができる。
SATは、過度に単純化されたグローバルサマリと過度に詳細なローカル説明のギャップを埋め、画像分類器の分析とデバッグのための実用的なツールを提供する。
関連論文リスト
- Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - LICO: Explainable Models with Language-Image Consistency [39.869639626266554]
本稿では,Language-Image Consistency model for explainable image classification, licOについて述べる。
まず、画像特徴量と言語特徴量との距離を最小化して、粗大な大域的多様体構造アライメントを確立する。
次に,局所特徴写像をクラス固有のプロンプトに割り当てるために最適な輸送(OT)理論を適用することにより,細粒度なサリエンシマップを実現する。
論文 参考訳(メタデータ) (2023-10-15T12:44:33Z) - Decom--CAM: Tell Me What You See, In Details! Feature-Level Interpretation via Decomposition Class Activation Map [23.71680014689873]
クラスアクティベーションマップ(CAM)は、オブジェクトの位置をハイライトすることで深層モデルの予測を解釈するために広く使われている。
本稿では,分解クラス活性化マップ(Decom-CAM)と呼ばれる2段階の解釈可能性を提案する。
実験の結果,提案したDecom-CAMは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T14:33:01Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。