論文の概要: Latent SHAP: Toward Practical Human-Interpretable Explanations
- arxiv url: http://arxiv.org/abs/2211.14797v1
- Date: Sun, 27 Nov 2022 11:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:24:13.062726
- Title: Latent SHAP: Toward Practical Human-Interpretable Explanations
- Title(参考訳): 潜伏SHAP:実践的人間解釈可能な説明に向けて
- Authors: Ron Bitton, Alon Malach, Amiel Meiseles, Satoru Momiyama, Toshinori
Araki, Jun Furukawa, Yuval Elovici and Asaf Shabtai
- Abstract要約: 人間の解釈可能な説明を提供するブラックボックス機能属性フレームワークであるLatent SHAPを紹介する。
本研究では,(1)可逆変換関数が利用できる制御実験により,提案手法の堅牢な定量的評価を可能にすること,(2)可逆変換関数が利用できないセレブの魅力度分類(CelebAデータセットを用いた)を用いて,遅延SHAPの有効性を実証する。
- 参考スコア(独自算出の注目度): 44.28376542666342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model agnostic feature attribution algorithms (such as SHAP and LIME) are
ubiquitous techniques for explaining the decisions of complex classification
models, such as deep neural networks. However, since complex classification
models produce superior performance when trained on low-level (or encoded)
features, in many cases, the explanations generated by these algorithms are
neither interpretable nor usable by humans. Methods proposed in recent studies
that support the generation of human-interpretable explanations are
impractical, because they require a fully invertible transformation function
that maps the model's input features to the human-interpretable features. In
this work, we introduce Latent SHAP, a black-box feature attribution framework
that provides human-interpretable explanations, without the requirement for a
fully invertible transformation function. We demonstrate Latent SHAP's
effectiveness using (1) a controlled experiment where invertible transformation
functions are available, which enables robust quantitative evaluation of our
method, and (2) celebrity attractiveness classification (using the CelebA
dataset) where invertible transformation functions are not available, which
enables thorough qualitative evaluation of our method.
- Abstract(参考訳): モデル非依存特徴帰属アルゴリズム(shapやlimeなど)は、ディープニューラルネットワークのような複雑な分類モデルの決定を説明するユビキタスな手法である。
しかし、複雑な分類モデルは、低レベル(またはエンコード)特徴を訓練した場合に優れた性能をもたらすため、多くの場合、これらのアルゴリズムによって生成された説明は、人間が解釈も利用もできない。
近年,人間の解釈可能な説明の生成を支援する手法が提案されている。それは,モデルの入力特徴を人間解釈可能な特徴にマッピングする完全可逆変換関数を必要とするためである。
本研究では,完全可逆変換関数を必要とせず,人間の解釈可能な説明を提供するブラックボックス機能属性フレームワークであるLatent SHAPを紹介する。
本研究では,(1)可逆変換関数が利用可能である制御実験,(2)可逆変換関数が利用できないセレブの魅力度分類(CelebAデータセットを使用),および,提案手法の徹底的な質的評価を実現することによる遅延SHAPの有効性を実証する。
関連論文リスト
- Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Koopman operator learning using invertible neural networks [0.6846628460229516]
クープマン作用素論において、有限次元非線形系は可観測関数の集合を用いて無限だが線型系に変換される。
現在の方法論は可観測関数の可逆性の重要性を無視し、不正確な結果をもたらす傾向にある。
本稿では,CF-INN(Coupling Flow Invertible Neural Network)フレームワークを利用したフローベース動的モード分解(FlowDMD)を提案する。
論文 参考訳(メタデータ) (2023-06-30T04:26:46Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Human-interpretable model explainability on high-dimensional data [8.574682463936007]
2つのモジュールからなる高次元データに対する人間解釈可能な説明可能性のためのフレームワークを提案する。
まず、データの生の次元性を減らし、人間の解釈可能性を確保するために、意味的に意味のある潜在表現を適用する。
第2に、モデルに依存しないこれらの潜在的特徴を扱うために、Shapleyパラダイムを適用し、理論的に制御され、計算的に抽出可能なモデル説明をもたらす。
論文 参考訳(メタデータ) (2020-10-14T20:06:28Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。