論文の概要: Four Axiomatic Characterizations of the Integrated Gradients Attribution
Method
- arxiv url: http://arxiv.org/abs/2306.13753v1
- Date: Fri, 23 Jun 2023 19:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 19:29:00.721127
- Title: Four Axiomatic Characterizations of the Integrated Gradients Attribution
Method
- Title(参考訳): 統合勾配属性法の4つの公理的特性
- Authors: Daniel Lundstrom, Meisam Razaviyayn
- Abstract要約: 属性法は、各入力がモデルの出力にどれだけ貢献したかを示すことによって、機械学習モデルに光を当てようとしている。
The Integrated Gradients (IG) method is a state of the art baseline attribution method in the axiomatic vein。
本稿では,IGの4つの公理的特性について述べる。IGは属性のクラスの中で異なる公理の集合を満たす一意の方法として確立される。
- 参考スコア(独自算出の注目度): 9.416757363901295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have produced significant progress among machine
learning models in terms of accuracy and functionality, but their inner
workings are still largely unknown. Attribution methods seek to shine a light
on these "black box" models by indicating how much each input contributed to a
model's outputs. The Integrated Gradients (IG) method is a state of the art
baseline attribution method in the axiomatic vein, meaning it is designed to
conform to particular principles of attributions. We present four axiomatic
characterizations of IG, establishing IG as the unique method to satisfy
different sets of axioms among a class of attribution methods.
- Abstract(参考訳): 深層ニューラルネットワークは、精度と機能の観点から機械学習モデルの間で大きな進歩をもたらしたが、その内部構造はいまだに不明である。
アトリビューションメソッドは、各入力がモデルの出力にどれだけ貢献したかを示すことによって、これらの「ブラックボックス」モデルに光を当てようとしている。
統合グラディエンツ法(Integrated Gradients, IG)は、軸索静脈におけるアートベースライン属性法の状態であり、特定の属性の原理に従うように設計されている。
本稿では,IGの4つの公理的特性について述べる。IGは属性のクラスの中で異なる公理の集合を満たす一意の方法として確立される。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Decompose the model: Mechanistic interpretability in image models with Generalized Integrated Gradients (GIG) [24.02036048242832]
本稿では,すべての中間層を経由した入力から,データセット全体の最終的な出力まで,経路全体をトレースする新しい手法を提案する。
本稿では,PFV(Pointwise Feature Vectors)とERF(Effective Receptive Fields)を用いて,モデル埋め込みを解釈可能な概念ベクトルに分解する。
そして,汎用統合勾配(GIG)を用いて概念ベクトル間の関係を計算し,モデル行動の包括的,データセットワイドな解析を可能にする。
論文 参考訳(メタデータ) (2024-09-03T05:19:35Z) - Stable Attractors for Neural networks classification via Ordinary Differential Equations (SA-nODE) [0.9786690381850358]
プリオリは、予め割り当てられた固定安定なアトラクタのセットに対応するように構成されている。
分類を行う固有の能力は、ターゲットの安定なアトラクションのそれぞれに関連するアトラクションの形状の盆地に反映される。
この手法は最先端のディープラーニングアルゴリズムの性能には達しないが、解析的相互作用項を閉じた連続力学系が高性能な分類器として機能することを示す。
論文 参考訳(メタデータ) (2023-11-17T08:30:41Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - From axioms over graphs to vectors, and back again: evaluating the
properties of graph-based ontology embeddings [78.217418197549]
埋め込みを生成するアプローチの1つは、名前付きエンティティと論理公理構造のためのノードとエッジのセットを導入することである。
グラフに埋め込む方法(グラフ射影)は、それらが利用する公理の種類と異なる性質を持つ。
論文 参考訳(メタデータ) (2023-03-29T08:21:49Z) - A Rigorous Study of Integrated Gradients Method and Extensions to
Internal Neuron Attributions [9.13127392774573]
統合勾配(IG)は、他の方法が望ましい公理を満たせなかったと主張することによって、それ自身を分離する。
IGにおける単一ベースライン法に対する公理は, 入力サンプル空間上の確率分布となる手法に対して, 類似性を付与する。
本研究は,神経細胞の分解および内因性属性を検証した実験結果である。
論文 参考訳(メタデータ) (2022-02-24T05:51:40Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。