論文の概要: Rethink Baseline of Integrated Gradients from the Perspective of Shapley
Value
- arxiv url: http://arxiv.org/abs/2310.04821v2
- Date: Tue, 10 Oct 2023 06:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:15:06.479228
- Title: Rethink Baseline of Integrated Gradients from the Perspective of Shapley
Value
- Title(参考訳): 共有価値の観点からの統合的勾配のベースラインを再考する
- Authors: Shuyang Liu, Zixuan Chen, Ge Shi, Ji Wang, Changjie Fan, Yu Xiong,
Runze Wu Yujing Hu, Ze Ji, Yang Gao
- Abstract要約: そこで我々はShapley Integrated Gradientsと呼ばれる新しいベースライン構築手法を提案する。
SIGは、シェープ値の経路を部分的にシミュレートするために、比例サンプリングによってベースラインの集合を探索する。
様々な画像タスクで行った実験は、SIGが特徴の寄与度を改善したことを示している。
- 参考スコア(独自算出の注目度): 32.37860708840187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous approaches have attempted to interpret deep neural networks (DNNs)
by attributing the prediction of DNN to its input features. One of the
well-studied attribution methods is Integrated Gradients (IG). Specifically,
the choice of baselines for IG is a critical consideration for generating
meaningful and unbiased explanations for model predictions in different
scenarios. However, current practice of exploiting a single baseline fails to
fulfill this ambition, thus demanding multiple baselines. Fortunately, the
inherent connection between IG and Aumann-Shapley Value forms a unique
perspective to rethink the design of baselines. Under certain hypothesis, we
theoretically analyse that a set of baseline aligns with the coalitions in
Shapley Value. Thus, we propose a novel baseline construction method called
Shapley Integrated Gradients (SIG) that searches for a set of baselines by
proportional sampling to partly simulate the computation path of Shapley Value.
Simulations on GridWorld show that SIG approximates the proportion of Shapley
Values. Furthermore, experiments conducted on various image tasks demonstrate
that compared to IG using other baseline methods, SIG exhibits an improved
estimation of feature's contribution, offers more consistent explanations
across diverse applications, and is generic to distinct data types or instances
with insignificant computational overhead.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の解釈には、DNNの予測を入力特性に寄与させることで、多くのアプローチが試みられている。
よく研究されている属性手法の1つは統合勾配(IG)である。
特に、igのベースラインの選択は、異なるシナリオにおけるモデル予測に対して有意義で偏りのない説明を生成するための重要な考慮事項である。
しかし、単一のベースラインを利用する現在のプラクティスは、この野望を達成できず、複数のベースラインを要求する。
幸いなことに、IGとAumann-Shapley Valueの関係は、ベースラインの設計を再考するためのユニークな視点を形成している。
ある仮説の下で、理論上、一連のベースラインがシェープリー値の連立と一致することを解析する。
そこで本研究では,Shapley Integrated Gradients (SIG) と呼ばれる新しいベースライン構築手法を提案する。
GridWorldのシミュレーションは、SIGがシェープ値の比率を近似していることを示している。
さらに,他のベースライン手法を用いたIGと比較して,SIGは特徴の寄与度を向上し,多様なアプリケーション間でより一貫した説明を提供し,計算オーバーヘッドの少ないデータ型やインスタンスに汎用的であることを示す。
関連論文リスト
- LRP-QViT: Mixed-Precision Vision Transformer Quantization via Layer-wise
Relevance Propagation [0.0]
LRP-QViTは、異なる層に混合精度のビット割り当てを割り当てる説明可能性に基づく手法である。
実験結果から,固定ビット・混合ビット後量子化法が既存の4ビット・6ビット量子化法を超越していることが判明した。
論文 参考訳(メタデータ) (2024-01-20T14:53:19Z) - Shapley Values-enabled Progressive Pseudo Bag Augmentation for Whole Slide Image Classification [6.705260410604528]
計算病理学において、全スライディング画像(WSI)分類は、そのギガピクセル解像度と限定された細かいアノテーションのため、非常に難しい課題である。
MIL(Multiple-instance Learning)は、弱教師付きソリューションを提供するが、バッグレベルのラベルからインスタンスレベルの情報を精査することは依然として困難である。
協調ゲーム理論に触発された新たなアプローチとして,各インスタンスの寄与度を評価するためにShapley値を用いることにより,IIS推定を改善する。
論文 参考訳(メタデータ) (2023-12-09T07:35:09Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Beyond Deep Ensembles: A Large-Scale Evaluation of Bayesian Deep
Learning under Distribution Shift [19.945634052291542]
我々は、WILDSコレクションから現実のデータセットに対する最新のBDLアルゴリズムを評価し、難解な分類と回帰タスクを含む。
我々は、大規模な、畳み込み、トランスフォーマーベースのニューラルネットワークアーキテクチャにおいて、アルゴリズムを比較した。
そこで本研究では,BDLを用いた大規模事前学習モデルのシステム評価を行った。
論文 参考訳(メタデータ) (2023-06-21T14:36:03Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Interpretation of Neural Networks is Susceptible to Universal Adversarial Perturbations [9.054540533394926]
本稿では,標準画像データセットにUniversal Perturbation for Interpretation (UPI)が存在することを示す。
本稿では、ニューラルネットワークの勾配に基づく解釈を異なるサンプルで効果的に変更可能な、主成分分析(PCA)に基づくUPI計算手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T15:55:40Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Neural BRDF Representation and Importance Sampling [79.84316447473873]
本稿では,リフレクタンスBRDFデータのコンパクトニューラルネットワークに基づく表現について述べる。
BRDFを軽量ネットワークとしてエンコードし、適応角サンプリングによるトレーニングスキームを提案する。
複数の実世界のデータセットから等方性および異方性BRDFの符号化結果を評価する。
論文 参考訳(メタデータ) (2021-02-11T12:00:24Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。