論文の概要: MAPS: Masked Attribution-based Probing of Strategies- A computational framework to align human and model explanations
- arxiv url: http://arxiv.org/abs/2510.12141v1
- Date: Tue, 14 Oct 2025 04:40:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.189094
- Title: MAPS: Masked Attribution-based Probing of Strategies- A computational framework to align human and model explanations
- Title(参考訳): MAPS:Masked Attribution-based Probing of Strategies--人間とモデルの説明を整合させる計算フレームワーク
- Authors: Sabine Muzellec, Yousif Kashef Alghetaa, Simon Kornblith, Kohitij Kar,
- Abstract要約: 人工ニューラルネットワーク(ANN)から導かれる説明が人間の視覚にも応用できるかどうかを調べるためのツールであるMAPS(Masked Attribution-based Probing of Strategies)を提案する。
MAPSは、属性マップを説明マスク付き画像(EMI)に変換し、これらの最小画像上の画像毎の精度と、全刺激に対する精度の限られたピクセル予算を比較する。
ヒトとマカクに応用すると、MAPSはANN-Explanationの組合せを識別し、その説明は生物学的ビジョンと最も密接に一致し、より少ない行動試験を必要としながら、バブルマスクの行動妥当性を達成する。
- 参考スコア(独自算出の注目度): 13.217369717733222
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human core object recognition depends on the selective use of visual information, but the strategies guiding these choices are difficult to measure directly. We present MAPS (Masked Attribution-based Probing of Strategies), a behaviorally validated computational tool that tests whether explanations derived from artificial neural networks (ANNs) can also explain human vision. MAPS converts attribution maps into explanation-masked images (EMIs) and compares image-by-image human accuracies on these minimal images with limited pixel budgets with accuracies on the full stimuli. MAPS provides a principled way to evaluate and choose among competing ANN interpretability methods. In silico, EMI-based behavioral similarity between models reliably recovers the ground-truth similarity computed from their attribution maps, establishing which explanation methods best capture the model's strategy. When applied to humans and macaques, MAPS identifies ANN-explanation combinations whose explanations align most closely with biological vision, achieving the behavioral validity of Bubble masks while requiring far fewer behavioral trials. Because it needs only access to model attributions and a modest set of behavioral data on the original images, MAPS avoids exhaustive psychophysics while offering a scalable tool for adjudicating explanations and linking human behavior, neural activity, and model decisions under a common standard.
- Abstract(参考訳): 人間の中核オブジェクト認識は視覚情報の選択的利用に依存するが、これらの選択を導く戦略を直接的に測定することは困難である。
人工ニューラルネットワーク(ANN)から導かれる説明が人間の視覚にも応用できるかどうかを判断する行動検証ツールであるMAPS(Masked Attribution-based Probing of Strategies)を提案する。
MAPSは、属性マップを説明マスク付き画像(EMI)に変換し、これらの最小画像上の画像毎の精度と、全刺激に対する精度の限られたピクセル予算を比較する。
MAPSは、競合するANNの解釈可能性メソッドの評価と選択を原則とした方法を提供する。
サイリコでは、モデル間のEMIに基づく行動的類似性は、それらの属性マップから計算された基底的真実的類似性を確実に回復し、どの説明方法がモデルの戦略を最もよく捉えているかを確立する。
ヒトとマカクに応用すると、MAPSはANN-Explanationの組合せを識別し、その説明は生物学的ビジョンと最も密接に一致し、より少ない行動試験を必要としながら、バブルマスクの行動妥当性を達成する。
MAPSは、モデル属性と元の画像上の控えめな行動データへのアクセスしか必要としないため、人間の行動、神経活動、モデル決定を共通の基準の下で調整し、関連付けるためのスケーラブルなツールを提供しながら、徹底的な精神物理学を避ける。
関連論文リスト
- ForenX: Towards Explainable AI-Generated Image Detection with Multimodal Large Language Models [82.04858317800097]
ForenXは画像の真正性を識別するだけでなく、人間の思考に共鳴する説明を提供する新しい手法である。
ForenXは、強力なマルチモーダル大言語モデル(MLLM)を使用して、法医学的な手がかりを分析し、解釈する。
本稿では,AI生成画像における偽証拠の記述専用のデータセットであるForgReasonを紹介する。
論文 参考訳(メタデータ) (2025-08-02T15:21:26Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Few-shot Personalized Saliency Prediction Based on Interpersonal Gaze Patterns [46.53272125326905]
本研究では、対人的な視線パターンを利用した、パーソナライズされた個人性予測手法を提案する。
限られたデータからPSMを予測する効果的な戦略は、他人の視線追跡データを使用することである。
論文 参考訳(メタデータ) (2023-07-06T06:17:57Z) - Human Attention-Guided Explainable Artificial Intelligence for Computer
Vision Models [38.50257023156464]
我々は,人的注意力の知識を満足度に基づく説明可能なAI(XAI)手法に組み込むことで,その妥当性と忠実性を高めることができるかどうかを検討した。
我々はまず,オブジェクト検出モデルのための勾配に基づく新しいXAI手法を開発し,オブジェクト固有の説明を生成する。
そこで我々は,人間の注意を喚起したXAIを開発し,モデルからの説明情報を最大限に組み合わせて説明の妥当性を高める方法を学んだ。
論文 参考訳(メタデータ) (2023-05-05T15:05:07Z) - MAUVE Scores for Generative Models: Theory and Practice [95.86006777961182]
本報告では,テキストや画像の生成モデルで発生するような分布のペア間の比較尺度であるMAUVEについて述べる。
我々は、MAUVEが人間の文章の分布と現代のニューラル言語モデルとのギャップを定量化できることを発見した。
我々は、MAUVEが既存のメトリクスと同等以上の画像の既知の特性を識別できることを視覚領域で実証する。
論文 参考訳(メタデータ) (2022-12-30T07:37:40Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Validation and generalization of pixel-wise relevance in convolutional
neural networks trained for face classification [0.0]
重要モデルのパラメータ間で、関連度がどう異なるかを示し、一般化する。
関連性に基づく画像マスキングにより、顔分類の関連マップは一般に安定であることが判明した。
モデル間の関係写像の詳細な解析により、選択パラメータの特定の利点を示す一般化における非対称性が明らかになった。
論文 参考訳(メタデータ) (2020-06-16T23:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。