論文の概要: Probabilistic Sufficient Explanations
- arxiv url: http://arxiv.org/abs/2105.10118v1
- Date: Fri, 21 May 2021 04:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:34:17.743553
- Title: Probabilistic Sufficient Explanations
- Title(参考訳): 確率的十分説明
- Authors: Eric Wang, Pasha Khosravi, Guy Van den Broeck
- Abstract要約: 確率論的に十分な説明を導入し、分類の例を特徴の「最も単純な」部分集合を選ぶものとして記述する。
保証をそのまま保ちつつ、所望の説明を見つけるためのスケーラブルなアルゴリズムを設計する。
本実験は, 十分な説明を求める上でのアルゴリズムの有効性を実証し, アンカーや論理的説明と比較して, その優位性を示すものである。
- 参考スコア(独自算出の注目度): 31.08715352013011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the behavior of learned classifiers is an important task, and
various black-box explanations, logical reasoning approaches, and
model-specific methods have been proposed. In this paper, we introduce
probabilistic sufficient explanations, which formulate explaining an instance
of classification as choosing the "simplest" subset of features such that only
observing those features is "sufficient" to explain the classification. That
is, sufficient to give us strong probabilistic guarantees that the model will
behave similarly when all features are observed under the data distribution. In
addition, we leverage tractable probabilistic reasoning tools such as
probabilistic circuits and expected predictions to design a scalable algorithm
for finding the desired explanations while keeping the guarantees intact. Our
experiments demonstrate the effectiveness of our algorithm in finding
sufficient explanations, and showcase its advantages compared to Anchors and
logical explanations.
- Abstract(参考訳): 学習した分類器の動作を理解することは重要な課題であり、様々なブラックボックスの説明、論理的推論手法、モデル固有の手法が提案されている。
本稿では,これらの特徴を観察するだけで分類を説明するのに十分であるような特徴の「最も単純な」部分集合を選択するものとして,分類の事例を説明する確率論的十分説明を紹介する。
つまり、データ分散の下で全ての機能が観測されたときにモデルが同じように振る舞うという強い確率的保証を与えるのに十分である。
さらに,確率回路や予測予測などのトラクタブルな確率的推論ツールを活用し,保証をそのまま維持しつつ,所望の説明を求めるスケーラブルなアルゴリズムを設計する。
実験では,十分な説明を求めるアルゴリズムの有効性を実証し,アンカーや論理説明と比較してその利点を示す。
関連論文リスト
- LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Analyzing Explainer Robustness via Lipschitzness of Prediction Functions [1.2116854758481395]
我々は、ロバストネスの特定の側面、すなわち、同様のデータ入力に対して同様の説明をするべきであることに焦点を当てる。
予測関数の正確性に類似した説明器の正確性を導入して定義することにより、この概念を定式化する。
論文 参考訳(メタデータ) (2022-06-24T19:43:33Z) - Robust Counterfactual Explanations for Random Forests [76.84947521482631]
本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係について検討する。
既存の手法が驚くほど低いロバスト性を与えることを示す: 単純な反事実の妥当性は、ほとんどのデータセットで50%以下である。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。