論文の概要: Activation Matching for Explanation Generation
- arxiv url: http://arxiv.org/abs/2509.23051v1
- Date: Sat, 27 Sep 2025 02:12:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.008768
- Title: Activation Matching for Explanation Generation
- Title(参考訳): 説明生成のためのアクティベーションマッチング
- Authors: Pirzada Suhail, Aditya Anand, Amit Sethi,
- Abstract要約: 我々は、任意の画像上の事前訓練された分類器の決定について、最小限の忠実な説明を生成する。
我々は軽量オートエンコーダを訓練してバイナリマスク(m)を出力し、説明(e = m odot x)がモデルの予測と(x)の中間活性化の両方を保存する。
i) 画像と説明の両方においてトップ1ラベルを保持するために分布とクロスエントロピーを整列するKL発散と多層アクティベーションマッチングを組み合わせる。
- 参考スコア(独自算出の注目度): 10.850989126934317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we introduce an activation-matching--based approach to generate minimal, faithful explanations for the decision-making of a pretrained classifier on any given image. Given an input image \(x\) and a frozen model \(f\), we train a lightweight autoencoder to output a binary mask \(m\) such that the explanation \(e = m \odot x\) preserves both the model's prediction and the intermediate activations of \(x\). Our objective combines: (i) multi-layer activation matching with KL divergence to align distributions and cross-entropy to retain the top-1 label for both the image and the explanation; (ii) mask priors -- L1 area for minimality, a binarization penalty for crisp 0/1 masks, and total variation for compactness; and (iii) abductive constraints for faithfulness and necessity. Together, these objectives yield small, human-interpretable masks that retain classifier behavior while discarding irrelevant input regions, providing practical and faithful minimalist explanations for the decision making of the underlying model.
- Abstract(参考訳): 本稿では,任意の画像上で事前学習した分類器の決定について,最小限かつ忠実な説明を生成するためのアクティベーションマッチングに基づくアプローチを提案する。
入力画像 \(x\) と凍結モデル \(f\) が与えられたとき、我々は軽量のオートエンコーダを訓練してバイナリマスク \(m\) を出力し、説明 \(e = m \odot x\) がモデルの予測と \(x\) の中間活性化の両方を保持するようにする。
私たちの目的は次の2つだ。
一 画像及び説明の両方のトップ-1ラベルを保持するために分布とクロスエントロピーを整列するためにKL発散と整合した多層活性化
(ii)マスク先行 -- 最小限のL1領域、crisp 0/1マスクの双項化ペナルティ、コンパクト性の総変動
三 忠実と必然性に対する誘致的制約
これらの目的は共に、無関係な入力領域を捨てながら分類器の動作を保持する小さな人間解釈可能なマスクを生成し、基礎となるモデルの意思決定に対して実用的で忠実な最小主義的な説明を提供する。
関連論文リスト
- SeeDiff: Off-the-Shelf Seeded Mask Generation from Diffusion Models [16.109077391631917]
我々は,クロスアテンションだけで非常に粗い物体の局在が得られ,初期種子が得られることを示した。
また、単純なテキスト誘導合成画像は、一様背景を持つことが多く、対応を見つけるのが容易であることも観察した。
提案手法はSeeDiffと呼ばれ,Stable Diffusionから高品質なマスクをオフザシェルフで生成する。
論文 参考訳(メタデータ) (2025-07-26T05:44:00Z) - Unsupervised Segmentation by Diffusing, Walking and Cutting [5.6872893893453105]
本稿では,事前学習したテキスト・画像拡散モデルの特徴を用いた教師なし画像分割手法を提案する。
重要な洞察は、自己アテンション確率分布は、画像を横断するランダムウォーキングの遷移行列として解釈できることである。
提案手法は,COCO-Stuff-27およびCityscapesにおける非教師なしセグメンテーションの既存手法を全て超越し,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-12-06T00:23:18Z) - MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - Masked Pre-training Enables Universal Zero-shot Denoiser [12.753764967728973]
我々は,新しいゼロショットデノベーションパラダイム,すなわち Masked Pre-train then Iterative fill (MPI) を提案する。
MPIはまずマスキングによりモデルを訓練し、その後1つのノイズ画像に基づいて高品質のゼロショット画像を生成する。
論文 参考訳(メタデータ) (2024-01-26T15:58:57Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - DFormer: Diffusion-guided Transformer for Universal Image Segmentation [86.73405604947459]
提案したDFormerは,拡散モデルを用いて画像分割タスクをデノナイズプロセスとみなしている。
我々のDFormerは、ランダムに生成されたマスクの集合から、マスクとそれに対応するカテゴリを直接予測します。
我々のDFormerは、最近の拡散型汎光学分割法Pix2Seq-Dより優れており、MS COCO val 2017セットで3.6%向上している。
論文 参考訳(メタデータ) (2023-06-06T06:33:32Z) - Image as First-Order Norm+Linear Autoregression: Unveiling Mathematical
Invariance [104.05734286732941]
FINOLAは、潜在空間内の各画像を1次自己回帰プロセスとして表現する。
FINOLAの256x256機能マップへの自動回帰機能を示す。
また、簡単なマスク付き予測手法を用いて、FINOLAを自己教師型学習に活用する。
論文 参考訳(メタデータ) (2023-05-25T17:59:50Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability [5.387323728379395]
画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-19T18:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。