論文の概要: Which Explanation Should I Choose? A Function Approximation Perspective
to Characterizing Post hoc Explanations
- arxiv url: http://arxiv.org/abs/2206.01254v1
- Date: Thu, 2 Jun 2022 19:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 07:57:43.213691
- Title: Which Explanation Should I Choose? A Function Approximation Perspective
to Characterizing Post hoc Explanations
- Title(参考訳): どの説明を選ぶべきか?
ポストホックな説明を特徴付ける関数近似的視点
- Authors: Tessa Han, Suraj Srinivas, Himabindu Lakkaraju
- Abstract要約: 一般的な説明手法は局所関数近似(LFA)フレームワークの例であることを示す。
本稿では,関数近似の観点に基づく指導原理を提案し,基礎となるモデルを復元した場合に有効となる方法を検討する。
実世界の様々なデータセット、モデルクラス、予測タスクを用いて理論的結果を実証的に検証する。
- 参考スコア(独自算出の注目度): 16.678003262147346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the plethora of post hoc model explanation methods, the basic
properties and behavior of these methods and the conditions under which each
one is effective are not well understood. In this work, we bridge these gaps
and address a fundamental question: Which explanation method should one use in
a given situation? To this end, we adopt a function approximation perspective
and formalize the local function approximation (LFA) framework. We show that
popular explanation methods are instances of this framework, performing
function approximations of the underlying model in different neighborhoods
using different loss functions. We introduce a no free lunch theorem for
explanation methods which demonstrates that no single method can perform
optimally across all neighbourhoods and calls for choosing among methods. To
choose among methods, we set forth a guiding principle based on the function
approximation perspective, considering a method to be effective if it recovers
the underlying model when the model is a member of the explanation function
class. Then, we analyze the conditions under which popular explanation methods
are effective and provide recommendations for choosing among explanation
methods and creating new ones. Lastly, we empirically validate our theoretical
results using various real world datasets, model classes, and prediction tasks.
By providing a principled mathematical framework which unifies diverse
explanation methods, our work characterizes the behaviour of these methods and
their relation to one another, guides the choice of explanation methods, and
paves the way for the creation of new ones.
- Abstract(参考訳): ポストホックモデル説明法が多用されているにもかかわらず、これらの手法の基本的な特性と振る舞いと、各手法が有効である条件はよく分かっていない。
本研究では、これらのギャップを埋め、根本的な問題に対処する: 与えられた状況でどの説明方法を使うべきか?
そこで我々は,関数近似の観点を採用し,局所関数近似(LFA)フレームワークを定式化する。
一般的な説明法はこのフレームワークの例であり、異なる損失関数を用いて異なる地区で基礎となるモデルの関数近似を行う。
提案手法は,すべての近隣地域において最適に実行できないこと,メソッド間の選択を求めること,などが証明されている。
提案手法を選択するために,モデルが説明関数クラスのメンバーである場合に,基礎となるモデルを復元した場合に有効となる方法を考えることにより,関数近似の観点に基づく指導原理を定式化した。
次に, 一般的な説明方法が有効である条件を分析し, 説明方法の中から選択を推奨し, 新たな説明方法を作成する。
最後に,様々な実世界のデータセット,モデルクラス,予測タスクを用いて理論的結果を実証的に検証する。
多様な説明方法を統一する原理的数学的枠組みを提供することにより,これらの手法の挙動と相互関係を特徴付け,説明方法の選択を導き,新たな説明手法の作成への道を開く。
関連論文リスト
- An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Impossibility Theorems for Feature Attribution [21.88229793890961]
そこで本研究では,適度にリッチなモデルクラスでは,任意の特徴属性法がモデル振る舞いを推測するランダムな推測において,確実に改善できないことを示す。
本研究は, 局所モデル行動の特徴付け, 突発的特徴の同定, アルゴリズム的リコースなど, 一般的なエンドタスクに適用する。
論文 参考訳(メタデータ) (2022-12-22T17:03:57Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Topological Representations of Local Explanations [8.559625821116454]
局所的な説明の集合から単純化された表現を抽出するトポロジに基づくフレームワークを提案する。
我々のフレームワークは、説明可能性技術の違いを確実に識別できるだけでなく、安定した表現も提供できることを実証する。
論文 参考訳(メタデータ) (2022-01-06T17:46:45Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Feature Removal Is a Unifying Principle for Model Explanation Methods [14.50261153230204]
文献を検証した結果,多くの手法が,削除による説明の共有原理に基づいていることがわかった。
本研究では,3次元にまたがる各手法を特徴付ける,除去に基づく説明のためのフレームワークを開発する。
我々のフレームワークは26の既存メソッドを統一し、最も広く使われているアプローチをいくつか含む。
論文 参考訳(メタデータ) (2020-11-06T22:37:55Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。