論文の概要: Unifying Attribution-Based Explanations Using Functional Decomposition
- arxiv url: http://arxiv.org/abs/2412.13623v1
- Date: Wed, 18 Dec 2024 09:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:48:55.346705
- Title: Unifying Attribution-Based Explanations Using Functional Decomposition
- Title(参考訳): 関数分解を用いた属性に基づく説明の統一
- Authors: Arne Gevaert, Yvan Saeys,
- Abstract要約: 本稿では,属性に基づく説明手法の統一化フレームワークを提案する。
類似点と説明の相違点の厳密な研究に向けての一歩となる。
- 参考スコア(独自算出の注目度): 1.8216507818880976
- License:
- Abstract: The black box problem in machine learning has led to the introduction of an ever-increasing set of explanation methods for complex models. These explanations have different properties, which in turn has led to the problem of method selection: which explanation method is most suitable for a given use case? In this work, we propose a unifying framework of attribution-based explanation methods, which provides a step towards a rigorous study of the similarities and differences of explanations. We first introduce removal-based attribution methods (RBAMs), and show that an extensively broad selection of existing methods can be viewed as such RBAMs. We then introduce the canonical additive decomposition (CAD). This is a general construction for additively decomposing any function based on the central idea of removing (groups of) features. We proceed to show that indeed every valid additive decomposition is an instance of the CAD, and that any removal-based attribution method is associated with a specific CAD. Next, we show that any removal-based attribution method can be completely defined as a game-theoretic value or interaction index for a specific (possibly constant-shifted) cooperative game, which is defined using the corresponding CAD of the method. We then use this intrinsic connection to define formal descriptions of specific behaviours of explanation methods, which we also call functional axioms, and identify sufficient conditions on the corresponding CAD and game-theoretic value or interaction index of an attribution method under which the attribution method is guaranteed to adhere to these functional axioms. Finally, we show how this unifying framework can be used to develop new, efficient approximations for existing explanation methods.
- Abstract(参考訳): 機械学習におけるブラックボックス問題により、複雑なモデルに対する説明手法が継続的に導入されている。
これらの説明は異なる性質を持ち、それがメソッド選択の問題に繋がる:どの説明方法が与えられたユースケースに最も適しているか?
本研究では,属性に基づく説明手法の統一的枠組みを提案し,類似性と説明の相違について厳密な研究を進める。
まず, 削除型属性法(RBAM)を導入し, 既存のメソッドを広範囲に選択して, RBAMとみなせることを示す。
次に、正準加法分解(CAD)を導入する。
これは、(群の)特徴を取り除くという中心的な考えに基づく任意の函数を加法的に分解するための一般的な構成である。
実際に有効な加法分解はCADの例であり、除去に基づく帰属法は特定のCADに関連付けられていることを示す。
次に,任意の削除型属性法を,対応するCADを用いて定義した特定の(定数シフト可能な)協調ゲームに対するゲーム理論値あるいはインタラクション指標として,完全に定義することができることを示す。
この本質的な接続を用いて、機能的公理と呼ばれる説明手法の特定の動作の形式的記述を定義し、それらの機能的公理に従属することが保証される属性メソッドの対応するCADおよびゲーム理論値または相互作用指標に関する十分な条件を同定する。
最後に、この統合フレームワークを用いて、既存の説明手法の新しい効率的な近似を開発する方法を示す。
関連論文リスト
- Uncertainty Quantification with Bayesian Higher Order ReLU KANs [0.0]
本稿では,コルモゴロフ・アルノルドネットワークの領域における不確実性定量化手法について紹介する。
簡単な一次元関数を含む一連の閉包試験により,本手法の有効性を検証した。
本稿では,ある項を包含することで導入された機能的依存関係を正しく識別する手法の能力を実証する。
論文 参考訳(メタデータ) (2024-10-02T15:57:18Z) - Explaining Modern Gated-Linear RNNs via a Unified Implicit Attention Formulation [54.50526986788175]
効率的なシーケンスモデリングの最近の進歩は、Mamba、RWKV、および様々なゲートRNNのような注意のないレイヤーを生み出している。
我々はこれらのモデルの統一的なビューを示し、暗黙の因果自己注意層のような層を定式化する。
筆者らのフレームワークは,異なるレイヤに対する類似の基盤となるメカニズムを比較検討し,説明可能性の手法を直接適用する手段を提供する。
論文 参考訳(メタデータ) (2024-05-26T09:57:45Z) - Composable Part-Based Manipulation [61.48634521323737]
本稿では,ロボット操作スキルの学習と一般化を改善するために,構成可能な部品ベース操作(CPM)を提案する。
CPMは構成可能な拡散モデルの集合で構成され、各モデルは異なるオブジェクト間の対応をキャプチャする。
シミュレーションおよび実世界のシナリオにおいて、我々のアプローチを検証し、ロバストかつ一般化された操作能力を達成する上での有効性を実証する。
論文 参考訳(メタデータ) (2024-05-09T16:04:14Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Which Explanation Should I Choose? A Function Approximation Perspective
to Characterizing Post hoc Explanations [16.678003262147346]
一般的な説明手法は局所関数近似(LFA)フレームワークの例であることを示す。
本稿では,関数近似の観点に基づく指導原理を提案し,基礎となるモデルを復元した場合に有効となる方法を検討する。
実世界の様々なデータセット、モデルクラス、予測タスクを用いて理論的結果を実証的に検証する。
論文 参考訳(メタデータ) (2022-06-02T19:09:30Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Topological Representations of Local Explanations [8.559625821116454]
局所的な説明の集合から単純化された表現を抽出するトポロジに基づくフレームワークを提案する。
我々のフレームワークは、説明可能性技術の違いを確実に識別できるだけでなく、安定した表現も提供できることを実証する。
論文 参考訳(メタデータ) (2022-01-06T17:46:45Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Feature Removal Is a Unifying Principle for Model Explanation Methods [14.50261153230204]
文献を検証した結果,多くの手法が,削除による説明の共有原理に基づいていることがわかった。
本研究では,3次元にまたがる各手法を特徴付ける,除去に基づく説明のためのフレームワークを開発する。
我々のフレームワークは26の既存メソッドを統一し、最も広く使われているアプローチをいくつか含む。
論文 参考訳(メタデータ) (2020-11-06T22:37:55Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。