論文の概要: Towards Faithful Neural Network Intrinsic Interpretation with Shapley
Additive Self-Attribution
- arxiv url: http://arxiv.org/abs/2309.15559v1
- Date: Wed, 27 Sep 2023 10:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:14:22.426791
- Title: Towards Faithful Neural Network Intrinsic Interpretation with Shapley
Additive Self-Attribution
- Title(参考訳): 共有付加自己帰属による忠実ニューラルネットワーク固有の解釈に向けて
- Authors: Ying Sun, Hengshu Zhu, Hui Xiong
- Abstract要約: SASANet(Shapley Additive Self-Attribution Neural Network)を提案する。
SASANetは、出力のShapley値に等しい自己帰属値に関する理論的保証を持っている。
実験の結果、SASANetは既存の自己帰属モデルを上回る性能を示し、ブラックボックスモデルと競合することがわかった。
- 参考スコア(独自算出の注目度): 39.687308338101005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-interpreting neural networks have garnered significant interest in
research. Existing works in this domain often (1) lack a solid theoretical
foundation ensuring genuine interpretability or (2) compromise model
expressiveness. In response, we formulate a generic Additive Self-Attribution
(ASA) framework. Observing the absence of Shapley value in Additive
Self-Attribution, we propose Shapley Additive Self-Attributing Neural Network
(SASANet), with theoretical guarantees for the self-attribution value equal to
the output's Shapley values. Specifically, SASANet uses a marginal
contribution-based sequential schema and internal distillation-based training
strategies to model meaningful outputs for any number of features, resulting in
un-approximated meaningful value function. Our experimental results indicate
SASANet surpasses existing self-attributing models in performance and rivals
black-box models. Moreover, SASANet is shown more precise and efficient than
post-hoc methods in interpreting its own predictions.
- Abstract(参考訳): 自己解釈ニューラルネットワークは、研究に大きな関心を集めている。
この領域における既存の研究は、(1)真の解釈可能性を保証する確固たる理論基盤、または(2)妥協モデル表現性を欠いていることが多い。
これに応えて、汎用的な自己貢献(ASA)フレームワークを定式化する。
加法自己帰属におけるshapley値の欠如を観察し,出力のshapley値に等しい自己帰属値に対して理論的に保証したshapley加法自己帰属ニューラルネットワーク(sasanet)を提案する。
具体的には、SASANetは、限界的なコントリビューションベースのシーケンシャルスキーマと内部蒸留ベースのトレーニング戦略を使用して、さまざまな特徴に対して意味のある出力をモデル化し、その結果、意味のある値関数を非近似化する。
実験の結果、SASANetは既存の自己帰属モデルを上回る性能を示し、ブラックボックスモデルと競合することがわかった。
さらに、SASANetは、自己予測の解釈において、ポストホック法よりも正確で効率的であることを示す。
関連論文リスト
- Beyond Interpretability: The Gains of Feature Monosemanticity on Model Robustness [68.69369585600698]
ディープラーニングモデルは多意味性による解釈可能性の欠如に悩まされることが多い。
神経細胞が一貫したセマンティクスと異なるセマンティクスに対応するモノセマンティクスの最近の進歩は、解釈可能性を大幅に改善した。
モノセマンティックな特徴は解釈可能性を高めるだけでなく、モデル性能の具体的な向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-27T18:03:20Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - On the Robustness of Removal-Based Feature Attributions [17.679374058425346]
我々は、除去に基づく特徴属性のロバスト性の特性を理論的に特徴づける。
具体的には、このような手法を統一的に分析し、無害な帰属と摂動した帰属の差について上界を導出する。
合成および実世界のデータによる結果から理論的結果が検証され,その実用的意義が実証された。
論文 参考訳(メタデータ) (2023-06-12T23:33:13Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - SHAP-XRT: The Shapley Value Meets Conditional Independence Testing [21.794110108580746]
そこで本研究では,Shapleyに基づく説明手法と条件付き独立性テストが密接に関連していることを示す。
本研究では,条件付きランダム化テスト(CRT, Conditional Randomization Test)にインスパイアされたテスト手法であるSHAPley Explanation Randomization Test(SHAP-XRT)を紹介した。
我々は、Shapley値自体が大域(つまり全体)のnull仮説の期待$p$-値に上限を与えることを示した。
論文 参考訳(メタデータ) (2022-07-14T16:28:54Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。