論文の概要: A Rigorous Study of Integrated Gradients Method and Extensions to
Internal Neuron Attributions
- arxiv url: http://arxiv.org/abs/2202.11912v1
- Date: Thu, 24 Feb 2022 05:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:27:57.932096
- Title: A Rigorous Study of Integrated Gradients Method and Extensions to
Internal Neuron Attributions
- Title(参考訳): 統合的勾配法と内因性ニューロンへの拡張に関する厳密な研究
- Authors: Daniel Lundstrom, Tianjian Huang, Meisam Razaviyayn
- Abstract要約: 統合勾配(IG)は、他の方法が望ましい公理を満たせなかったと主張することによって、それ自身を分離する。
IGにおける単一ベースライン法に対する公理は, 入力サンプル空間上の確率分布となる手法に対して, 類似性を付与する。
本研究は,神経細胞の分解および内因性属性を検証した実験結果である。
- 参考スコア(独自算出の注目度): 9.13127392774573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the efficacy of deep learning (DL) grows, so do concerns about the lack of
transparency of these black-box models. Attribution methods aim to improve
transparency of DL models by quantifying an input feature's importance to a
model's prediction. The method of Integrated gradients (IG) sets itself apart
by claiming other methods failed to satisfy desirable axioms, while IG and
methods like it uniquely satisfied said axioms. This paper comments on
fundamental aspects of IG and its applications/extensions: 1) We identify key
unaddressed differences between DL-attribution function spaces and the
supporting literature's function spaces which problematize previous claims of
IG uniqueness. We show that with the introduction of an additional axiom,
$\textit{non-decreasing positivity}$, the uniqueness claim can be established.
2) We address the question of input sensitivity by identifying function spaces
where the IG is/is not Lipschitz continuous in the attributed input. 3) We show
how axioms for single-baseline methods in IG impart analogous properties for
methods where the baseline is a probability distribution over the input sample
space. 4) We introduce a means of decomposing the IG map with respect to a
layer of internal neurons while simultaneously gaining internal-neuron
attributions. Finally, we present experimental results validating the
decomposition and internal neuron attributions.
- Abstract(参考訳): ディープラーニング(DL)の有効性が高まるにつれて、これらのブラックボックスモデルの透明性の欠如が懸念される。
アトリビューション手法は、モデル予測に対する入力特徴の重要性を定量化し、dlモデルの透明性を向上させることを目的としている。
統合勾配法(IG)は、他の方法が望ましい公理を満たすことができず、IGとそれのような方法がその公理を一意に満たさないと主張することによって、それ自体を分離する。
本稿では,IGの基本的側面とその応用・拡張について述べる。
1) DL-属性関数空間と,IGの一意性に関する従来の主張を問題視する文献の関数空間との間には,重要でない相違が認められる。
追加の公理である$\textit{non-decreasing positiveivity}$を導入することで、一意性主張が確立できることを示す。
2) 属性入力においてIGがリプシッツ連続でない関数空間を同定することにより, 入力感度の問題に対処する。
3) IGにおける単一ベースライン法に対する公理は, 入力サンプル空間上の確率分布となる手法に対して, 類似性を付与する。
4) 内部ニューロンの層に関してIGマップを分解すると同時に, 内部ニューロンの属性を同時に獲得する手段を導入する。
最後に、神経細胞の分解と内因性を検証する実験結果を示す。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Score-based Causal Representation Learning: Linear and General Transformations [31.786444957887472]
本稿は、識別可能性と達成可能性の両方に対処する。
スコアに基づくアルゴリズムのクラスを設計し、識別性と達成性の両方を保証する。
結果は構造化された合成データと画像データの実験によって実証的に検証される。
論文 参考訳(メタデータ) (2024-02-01T18:40:03Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - Learning Causal Representations of Single Cells via Sparse Mechanism
Shift Modeling [3.2435888122704037]
本稿では,各摂動を未知の,しかしスパースな,潜伏変数のサブセットを標的とした介入として扱う単一細胞遺伝子発現データの深部生成モデルを提案する。
これらの手法をシミュレーションした単一セルデータ上でベンチマークし、潜伏単位回復、因果的目標同定、領域外一般化における性能を評価する。
論文 参考訳(メタデータ) (2022-11-07T15:47:40Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - A Unified Off-Policy Evaluation Approach for General Value Function [131.45028999325797]
一般価値関数(GVF)は、強化学習(RL)における予測的知識と振り返り的知識の両方を表現する強力なツールである。
本稿では,GVF評価のためのGenTDと呼ばれる新しいアルゴリズムを提案する。
我々は、GenTDが単一の標準スカラー値関数と同じくらい効率的に複数の相互関連多次元GVFを学習することを示す。
論文 参考訳(メタデータ) (2021-07-06T16:20:34Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Semiparametric Inference For Causal Effects In Graphical Models With
Hidden Variables [13.299431908881425]
隠れ変数有向非巡回グラフに関連する因果モデルにおける因果効果の同定理論をよく研究した。
対応するアルゴリズムは、出力する関数を推定する複雑さのために、過小評価される。
単一処理と単一結果を含む集団レベルの因果効果の同定と推定のギャップを橋渡しする。
論文 参考訳(メタデータ) (2020-03-27T22:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。