論文の概要: On the Complexity-Faithfulness Trade-off of Gradient-Based Explanations
- arxiv url: http://arxiv.org/abs/2508.10490v1
- Date: Thu, 14 Aug 2025 09:49:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.261319
- Title: On the Complexity-Faithfulness Trade-off of Gradient-Based Explanations
- Title(参考訳): グラディエントに基づく説明の複雑さ-フェースフルネストレードオフについて
- Authors: Amir Mehrpanah, Matteo Gamba, Kevin Smith, Hossein Azizpour,
- Abstract要約: ReLUネットワークはシャープな遷移を持ち、時には予測のために個々のピクセルに依存する。
GradCAMのような既存の手法は、忠実さを犠牲にして代理モデルを作成することによって、これらの説明を円滑にする。
我々は、スムーズさ、忠実さ、およびそれらのトレードオフを系統的に分析し、定量化する統一スペクトルフレームワークを導入する。
- 参考スコア(独自算出の注目度): 5.528734654854472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ReLU networks, while prevalent for visual data, have sharp transitions, sometimes relying on individual pixels for predictions, making vanilla gradient-based explanations noisy and difficult to interpret. Existing methods, such as GradCAM, smooth these explanations by producing surrogate models at the cost of faithfulness. We introduce a unifying spectral framework to systematically analyze and quantify smoothness, faithfulness, and their trade-off in explanations. Using this framework, we quantify and regularize the contribution of ReLU networks to high-frequency information, providing a principled approach to identifying this trade-off. Our analysis characterizes how surrogate-based smoothing distorts explanations, leading to an ``explanation gap'' that we formally define and measure for different post-hoc methods. Finally, we validate our theoretical findings across different design choices, datasets, and ablations.
- Abstract(参考訳): ReLUネットワークは、視覚データに代表されるが、シャープな遷移を持ち、時には個々のピクセルを予測に頼り、バニラ勾配に基づく説明が騒々しく、解釈が難しい。
GradCAMのような既存の手法は、忠実さを犠牲にして代理モデルを作成することによって、これらの説明を円滑にする。
我々は、スムーズさ、忠実さ、およびそれらのトレードオフを系統的に分析し、定量化する統一スペクトルフレームワークを導入する。
このフレームワークを用いて、ReLUネットワークの高周波情報への寄与を定量化し、規則化し、このトレードオフを特定するための原則的なアプローチを提供する。
本分析では,サロゲートをベースとしたスムーズな歪みの説明を特徴付け,異なるポストホック法を正式に定義し,測定する「エクスラネーションギャップ」を導出する。
最後に、設計選択、データセット、改善に関する理論的知見を検証する。
関連論文リスト
- On Spectral Properties of Gradient-based Explanation Methods [6.181300669254824]
我々は,新しい確率的・スペクトル的視点を用いて説明法を解析する。
今回の研究では、勾配によるスペクトルバイアスが広範に広まっており、一般的な設計選択に光を当てています。
提案する形式主義に基づく2つの治療法を提案する。 (i) 標準摂動尺度を決定するメカニズムと, (ii) スペクトルレンズと呼ぶ集約手法である。
論文 参考訳(メタデータ) (2025-08-14T12:37:22Z) - Uncertainty Quantification for Gradient-based Explanations in Neural Networks [6.9060054915724]
ニューラルネットワークの説明の不確実性を確認するパイプラインを提案する。
このパイプラインを使用して、CIFAR-10、FER+、California Housingデータセットの説明分布を生成する。
修正画素挿入/削除のメトリクスを計算し、生成した説明の質を評価する。
論文 参考訳(メタデータ) (2024-03-25T21:56:02Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Deterministic Decoupling of Global Features and its Application to Data
Analysis [0.0]
部分多様体上の変換の定義に基づく新しい定式化を提案する。
これらの変換を通じて正規化を定義し、それを実証することで、微分可能な特徴を分離することができる。
本手法を,グローバルな記述子に基づく回帰・分類問題に対して,元のデータ領域とフィルタバンクの出力に適用する。
論文 参考訳(メタデータ) (2022-07-05T15:54:39Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。