論文の概要: Now you see me! Attribution Distributions Reveal What is Truly Important for a Prediction
- arxiv url: http://arxiv.org/abs/2503.07346v2
- Date: Mon, 27 Oct 2025 17:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.426174
- Title: Now you see me! Attribution Distributions Reveal What is Truly Important for a Prediction
- Title(参考訳): 見ての通り! 属性分布は予測にとって本当に重要なことを明らかにする
- Authors: Nils Philipp Walter, Jilles Vreeken, Jonas Fischer,
- Abstract要約: ニューラルネットワークが特定の予測に使用する入力特徴を理解するために属性法が開発されている。
ここでは、孤立ロジットの帰属計算として属性の特異性の欠如の原因を1つ同定する。
画像中の各空間的位置のクラスに対する属性の確率を計算することにより、既存の属性手法の真の能力を解き放つ。
- 参考スコア(独自算出の注目度): 40.04908502564302
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks are regularly employed in high-stakes decision-making, where understanding and transparency is key. Attribution methods have been developed to gain understanding into which input features neural networks use for a specific prediction. Although widely used in computer vision, these methods often result in unspecific saliency maps that fail to identify the relevant information that led to a decision, supported by different benchmarks results. Here, we revisit the common attribution pipeline and identify one cause for the lack of specificity in attributions as the computation of attribution of isolated logits. Instead, we suggest to combine attributions of multiple class logits in analogy to how the softmax combines the information across logits. By computing probability distributions of attributions over classes for each spatial location in the image, we unleash the true capabilities of existing attribution methods, revealing better object- and instance-specificity and uncovering discriminative as well as shared features between classes. On common benchmarks, including the grid-pointing game and randomization-based sanity checks, we show that this reconsideration of how and where we compute attributions across the network improves established attribution methods while staying agnostic to model architectures. We make the code publicly available: https://github.com/nilspwalter/var.
- Abstract(参考訳): ニューラルネットワークは、理解と透明性が鍵となる高い意思決定において、定期的に採用されている。
ニューラルネットワークが特定の予測に使用する入力特徴を理解するために属性法が開発されている。
コンピュータビジョンで広く使われているが、これらの手法は、異なるベンチマーク結果によって支持される決定に繋がった関連情報を特定できないような、特定されていない精度マップをもたらすことが多い。
ここでは、共通の属性パイプラインを再検討し、孤立ロジットの属性計算として属性の特異性の欠如の原因を1つ同定する。
代わりに、複数のクラスロジットの属性を、ソフトマックスがロジット間の情報をどのように結合するかに類似させることを提案する。
画像中の各空間的位置のクラスに対する属性の確率分布を計算することにより、既存の属性法の真の能力を解き放ち、より優れたオブジェクトおよびインスタンス特異性を明らかにし、クラス間の共有特徴を明らかにする。
グリッドポインティングゲームやランダム化による正当性チェックなど,一般的なベンチマークでは,ネットワーク全体の属性の計算方法の再検討により,モデルアーキテクチャに非依存なまま,確立された属性法が改善されている。
コードを公開しています。 https://github.com/nilspwalter/var。
関連論文リスト
- SMOL-MapSeg: Show Me One Label [0.4499833362998489]
SMOL-MapSegはOND知識によって定義されたクラスを正確にセグメント化できることを示す。
数ショットの微調整によって、目に見えないクラスにも適応できる。
平均セグメンテーション性能では、UNetベースのベースラインを上回っている。
論文 参考訳(メタデータ) (2025-08-07T15:36:17Z) - Aggregating Local Saliency Maps for Semi-Global Explainable Image Classification [0.0]
ディープラーニングは画像分類タスクを支配しているが、モデルが予測に到達する方法を理解することは依然として困難である。
多くの研究は、モデルの予測に対する特定のピクセルの影響を可視化するサリエンシマップのような個々の予測の局所的な説明に焦点を当てている。
本稿では,局所的なサリエンシの説明を(半)言語的洞察にまとめる手法であるセグメンツ属性テーブル(SAT)を提案する。
論文 参考訳(メタデータ) (2025-06-29T14:11:02Z) - Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Neural Map Prior for Autonomous Driving [17.198729798817094]
高精細(HD)セマンティックマップは、自動運転車が都市環境をナビゲートするために不可欠である。
オフラインのHDマップを作成する従来の方法には、労働集約的な手動アノテーションプロセスが含まれる。
近年,オンラインセンサを用いた局所地図作成手法が提案されている。
本研究では,グローバルマップのニューラル表現であるニューラルマッププライオリティ(NMP)を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:58:40Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。