論文の概要: Now you see me! A framework for obtaining class-relevant saliency maps
- arxiv url: http://arxiv.org/abs/2503.07346v1
- Date: Mon, 10 Mar 2025 13:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 20:09:44.947349
- Title: Now you see me! A framework for obtaining class-relevant saliency maps
- Title(参考訳): さあ、私を見てください!クラス関連サリエンシマップを取得するためのフレームワーク
- Authors: Nils Philipp Walter, Jilles Vreeken, Jonas Fischer,
- Abstract要約: ニューラルネットワークが特定の予測に使用する入力特徴を理解するために、サリエンシマップが開発された。
広く使われているが、これらの手法は、分類のきっかけとなった特定の情報を特定するのに失敗した、過度に一般的な衛生マップをもたらすことが多い。
我々は、クラス間の属性を組み込んで、実際にクラス関連情報をキャプチャする有給マップに到達できるフレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.663697418404546
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks are part of daily-life decision-making, including in high-stakes settings where understanding and transparency are key. Saliency maps have been developed to gain understanding into which input features neural networks use for a specific prediction. Although widely employed, these methods often result in overly general saliency maps that fail to identify the specific information that triggered the classification. In this work, we suggest a framework that allows to incorporate attributions across classes to arrive at saliency maps that actually capture the class-relevant information. On established benchmarks for attribution methods, including the grid-pointing game and randomization-based sanity checks, we show that our framework heavily boosts the performance of standard saliency map approaches. It is, by design, agnostic to model architectures and attribution methods and now allows to identify the distinguishing and shared features used for a model prediction.
- Abstract(参考訳): ニューラルネットワークは日々の意思決定の一部であり、理解と透明性が鍵となるハイテイクな設定を含む。
ニューラルネットワークが特定の予測に使用する入力特徴を理解するために、サリエンシマップが開発された。
広く使われているが、これらの手法は、分類のきっかけとなった特定の情報を特定するのに失敗した、過度に一般的な衛生マップをもたらすことが多い。
本研究では,クラス間の属性を組み込んで,実際にクラス関連情報をキャプチャする有能なマップに到達するためのフレームワークを提案する。
グリッドポインティングゲームやランダム化による正当性チェックなどの帰属性評価手法の確立したベンチマークから,本フレームワークが標準正当性マップ手法の性能を大幅に向上させることを示す。
設計上、モデルアーキテクチャや属性メソッドに非依存であり、モデル予測に使用される特徴の識別と共有を可能にする。
関連論文リスト
- SMOL-MapSeg: Show Me One Label [0.4499833362998489]
SMOL-MapSegはOND知識によって定義されたクラスを正確にセグメント化できることを示す。
数ショットの微調整によって、目に見えないクラスにも適応できる。
平均セグメンテーション性能では、UNetベースのベースラインを上回っている。
論文 参考訳(メタデータ) (2025-08-07T15:36:17Z) - Aggregating Local Saliency Maps for Semi-Global Explainable Image Classification [0.0]
ディープラーニングは画像分類タスクを支配しているが、モデルが予測に到達する方法を理解することは依然として困難である。
多くの研究は、モデルの予測に対する特定のピクセルの影響を可視化するサリエンシマップのような個々の予測の局所的な説明に焦点を当てている。
本稿では,局所的なサリエンシの説明を(半)言語的洞察にまとめる手法であるセグメンツ属性テーブル(SAT)を提案する。
論文 参考訳(メタデータ) (2025-06-29T14:11:02Z) - Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - On the verification of Embeddings using Hybrid Markov Logic [2.113770213797994]
本稿では,学習した表現の複雑な性質を検証するためのフレームワークを提案する。
このフレームワーク内のプロパティのパラメータを学習するためのアプローチを提案する。
本稿では,グラフニューラルネットワーク,深部知識追跡,知能学習システムにおける検証について述べる。
論文 参考訳(メタデータ) (2023-12-13T17:04:09Z) - Neural Map Prior for Autonomous Driving [17.198729798817094]
高精細(HD)セマンティックマップは、自動運転車が都市環境をナビゲートするために不可欠である。
オフラインのHDマップを作成する従来の方法には、労働集約的な手動アノテーションプロセスが含まれる。
近年,オンラインセンサを用いた局所地図作成手法が提案されている。
本研究では,グローバルマップのニューラル表現であるニューラルマッププライオリティ(NMP)を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:58:40Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [22.92968284023414]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - Fine-Grained Neural Network Explanation by Identifying Input Features
with Predictive Information [53.28701922632817]
入力領域における予測情報を用いて特徴を識別する手法を提案する。
我々の手法の中核となる考え方は、予測潜在機能に関連する入力機能のみを通過させる入力のボトルネックを活用することである。
論文 参考訳(メタデータ) (2021-10-04T14:13:42Z) - Conditional Variational Capsule Network for Open Set Recognition [64.18600886936557]
オープンセット認識では、分類器はトレーニング時に未知の未知のクラスを検出する必要がある。
最近提案されたカプセルネットワークは、特に画像認識において、多くの分野で代替案を上回ることが示されている。
本提案では,訓練中,同じ既知のクラスのカプセルの特徴を,事前に定義されたガウス型に適合させることを推奨する。
論文 参考訳(メタデータ) (2021-04-19T09:39:30Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - One-vs-Rest Network-based Deep Probability Model for Open Set
Recognition [6.85316573653194]
インテリジェントな自己学習システムは、既知の例と未知の例を区別することができるべきである。
1-vs-restネットワークは、よく使われるSoftMaxレイヤよりも、未知の例に対して、より有益な隠れ表現を提供することができる。
提案した確率モデルは、オープンセットの分類シナリオにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-17T05:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。