論文の概要: Back to the Baseline: Examining Baseline Effects on Explainability Metrics
- arxiv url: http://arxiv.org/abs/2512.11433v1
- Date: Fri, 12 Dec 2025 10:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.726127
- Title: Back to the Baseline: Examining Baseline Effects on Explainability Metrics
- Title(参考訳): ベースラインに戻る - 説明可能性メトリクスに対するベースラインの影響を調べる
- Authors: Agustin Martin Picard, Thibaut Boissin, Varshini Subhash, Rémi Cadène, Thomas Fel,
- Abstract要約: 与えられたベースラインの選択は、必然的に他人よりも特定の帰属法を好むことを示す。
i)情報を削除することと,(ii)過剰分布(OOD)画像を生成しないことの2つの望ましい特性を通してこの問題を研究することを提案する。
機能可視化における最近の成果を活用して新しいベースラインを導入し,OOD過多を伴わずに情報を除去するモデル依存ベースラインを人工的に生成する。
- 参考スコア(独自算出の注目度): 14.233020604684862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution methods are among the most prevalent techniques in Explainable Artificial Intelligence (XAI) and are usually evaluated and compared using Fidelity metrics, with Insertion and Deletion being the most popular. These metrics rely on a baseline function to alter the pixels of the input image that the attribution map deems most important. In this work, we highlight a critical problem with these metrics: the choice of a given baseline will inevitably favour certain attribution methods over others. More concerningly, even a simple linear model with commonly used baselines contradicts itself by designating different optimal methods. A question then arises: which baseline should we use? We propose to study this problem through two desirable properties of a baseline: (i) that it removes information and (ii) that it does not produce overly out-of-distribution (OOD) images. We first show that none of the tested baselines satisfy both criteria, and there appears to be a trade-off among current baselines: either they remove information or they produce a sequence of OOD images. Finally, we introduce a novel baseline by leveraging recent work in feature visualisation to artificially produce a model-dependent baseline that removes information without being overly OOD, thus improving on the trade-off when compared to other existing baselines. Our code is available at https://github.com/deel-ai-papers/Back-to-the-Baseline
- Abstract(参考訳): 属性法は、説明可能な人工知能(XAI)において最も一般的な手法の一つであり、一般的にはフィデリティのメトリクスを用いて評価・比較され、挿入と削除が最も人気である。
これらのメトリクスは、属性マップが最も重要なとみなす入力画像のピクセルを変更するために、ベースライン関数に依存している。
この研究では、これらの指標における重要な問題を強調します。与えられたベースラインの選択は、必然的に他の人よりも特定の属性メソッドを優先します。
より具体的には、よく使われるベースラインを持つ単純な線形モデルでさえ、異なる最適な方法を指定することでそれと矛盾する。
どのベースラインを使うべきか?
我々は,この問題を,ベースラインの2つの望ましい性質を通して研究することを提案する。
一 情報を取り除き
(II)過度にアウト・オブ・ディストリビューション(OOD)画像を生成しないこと。
まず、テストされたベースラインが両方の基準を満たしていないことを示し、現在のベースラインの間にはトレードオフがあるように思われる。
最後に,機能視覚化における最近の成果を活用して,OOD過多を伴わずに情報を除去するモデル依存ベースラインを人工的に生成し,既存のベースラインと比較してトレードオフを改善することにより,新しいベースラインを導入する。
私たちのコードはhttps://github.com/deel-ai-papers/Back-to-the-Baselineで利用可能です。
関連論文リスト
- On the notion of missingness for path attribution explainability methods in medical settings: Guiding the selection of medically meaningful baselines [48.688209040613216]
臨床的に正常ではあるが入力クローズ・カウンティファクトは、医療データに有意な特徴が欠如していることのより正確な表現である、と我々は主張する。
我々は,3つの異なる医療データセットに対するアプローチを評価し,反事実的ベースラインがより忠実で医療に関係のある属性をもたらすことを実証的に実証した。
論文 参考訳(メタデータ) (2025-08-20T07:13:41Z) - Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Learnable Pillar-based Re-ranking for Image-Text Retrieval [119.9979224297237]
画像テキスト検索は、モダリティギャップを埋め、意味的類似性に基づいてモダリティコンテンツを検索することを目的としている。
一般的なポストプロセッシング手法であるリグレードは, 単一モダリティ検索タスクにおいて, 隣り合う関係を捕捉する優位性を明らかにしている。
本稿では,画像テキスト検索のための新しい学習可能な柱型リグレードパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-25T04:33:27Z) - The Optimal Input-Independent Baseline for Binary Classification: The
Dutch Draw [0.0]
本研究の目的は,特徴値に依存しない基本手法について検討することである。
どのベースラインモデルが最適かを特定することにより、評価プロセスにおける重要な選択決定が簡単になる。
論文 参考訳(メタデータ) (2023-01-09T13:11:59Z) - The Dutch Draw: Constructing a Universal Baseline for Binary Prediction
Models [2.8816551600116527]
パフォーマンススコアの「良さ」を評価するためには、適切なベースラインが必要である。
本稿では、ダッチ・ドロー(DD)と呼ばれる全ての二項分類モデルに対する普遍的ベースライン法を提案する。
論文 参考訳(メタデータ) (2022-03-24T14:20:27Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - On Baselines for Local Feature Attributions [6.700433100198165]
ローカル機能帰属メソッドはブラックボックスモデルを説明するのに役立つ。
ほとんどの属性モデルは、入力特徴の重要性と基準値(しばしばベースラインと呼ばれる)を比較する。
最近の研究では、ベースラインが特徴属性の品質に大きな影響を与えることが示されている。
論文 参考訳(メタデータ) (2021-01-04T11:48:42Z) - A Baseline for Shapley Values in MLPs: from Missingness to Neutrality [3.5939555573102853]
ディープニューラルネットワークはその正確性に基づいて勢いを増しているが、その解釈可能性はしばしば批判されている。
本稿では,中立値に応じてベースラインを選択する手法を提案する。
バイナリ分類タスクの文脈におけるベースラインの選択を実証的に検証する。
論文 参考訳(メタデータ) (2020-06-08T19:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。