論文の概要: On the Explanatory Power of Decision Trees
- arxiv url: http://arxiv.org/abs/2108.05266v1
- Date: Wed, 11 Aug 2021 15:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 15:55:43.749886
- Title: On the Explanatory Power of Decision Trees
- Title(参考訳): 決定木の説明力について
- Authors: Gilles Audemard and Steve Bellart and Louenas Bounia and Fr\'ed\'eric
Koriche and Jean-Marie Lagniez and Pierre Marquis
- Abstract要約: 例えば、決定木が入力のサイズよりも指数関数的に大きい場合など、最小サイズのすべての十分な理由の集合を示す。
本稿では,特徴の説明的重要性と十分な理由の数が,モデルカウント操作によってどのように得られるかを示す。
十分な理由とは異なり、決定木が与えられたインスタンスに対するすべての対照的な説明の集合は導出され、最小化され、時間内に数えられる。
- 参考スコア(独自算出の注目度): 20.87501058448681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees have long been recognized as models of choice in sensitive
applications where interpretability is of paramount importance. In this paper,
we examine the computational ability of Boolean decision trees in deriving,
minimizing, and counting sufficient reasons and contrastive explanations. We
prove that the set of all sufficient reasons of minimal size for an instance
given a decision tree can be exponentially larger than the size of the input
(the instance and the decision tree). Therefore, generating the full set of
sufficient reasons can be out of reach. In addition, computing a single
sufficient reason does not prove enough in general; indeed, two sufficient
reasons for the same instance may differ on many features. To deal with this
issue and generate synthetic views of the set of all sufficient reasons, we
introduce the notions of relevant features and of necessary features that
characterize the (possibly negated) features appearing in at least one or in
every sufficient reason, and we show that they can be computed in polynomial
time. We also introduce the notion of explanatory importance, that indicates
how frequent each (possibly negated) feature is in the set of all sufficient
reasons. We show how the explanatory importance of a feature and the number of
sufficient reasons can be obtained via a model counting operation, which turns
out to be practical in many cases. We also explain how to enumerate sufficient
reasons of minimal size. We finally show that, unlike sufficient reasons, the
set of all contrastive explanations for an instance given a decision tree can
be derived, minimized and counted in polynomial time.
- Abstract(参考訳): 決定木は、解釈可能性が最も重要である敏感なアプリケーションにおいて、長い間選択のモデルとして認識されてきた。
本稿では,ブール決定木を導出し,最小化し,十分な理由と対比的な説明をカウントする計算能力について検討する。
決定木が与えられた場合のインスタンスの最小サイズに関するすべての十分な理由の集合が、入力のサイズ(例と決定木)よりも指数関数的に大きいことを証明する。
したがって、十分な理由の完全なセットを生成することは不可能である。
さらに、単一の十分な理由を計算しても、一般的には十分証明できない。実際、同じインスタンスの2つの十分な理由は、多くの機能で異なる可能性がある。
この問題に対処し、すべての十分な理由の集合の合成的ビューを生成するために、関係する特徴の概念と、少なくとも1つまたはすべての十分な理由に現れる(否定可能な)特徴を特徴付けるために必要な特徴を導入し、多項式時間で計算できることを示す。
また,説明的重要度の概念を導入して,各機能(おそらく否定的)が十分な理由のセット内にある頻度を示す。
本稿では,特徴の説明的重要性と十分な理由の数をモデルカウント演算によって得る方法を示し,その多くが実用的であることが判明した。
また,最小サイズの十分な理由を列挙する方法についても説明する。
十分な理由とは異なり、決定木が与えられた場合のすべての対照的な説明の集合は、多項式時間で導出され、最小化され、数えられる。
関連論文リスト
- P-FOLIO: Evaluating and Improving Logical Reasoning with Abundant Human-Written Reasoning Chains [97.25943550933829]
P-FOLIO(P-FOLIO)は、多種多様で複雑な推論連鎖からなる人称注釈付きデータセットである。
我々はP-FOLIOを用いて大規模言語モデル推論機能の評価と改善を行う。
論文 参考訳(メタデータ) (2024-10-11T19:22:57Z) - Logic for Explainable AI [11.358487655918676]
説明可能なAIにおける中心的な探求は、(学習された)分類器による決定を理解することである。
本チュートリアルでは,これらの次元に沿った説明可能性に関する包括的・意味的・計算的理論について論じる。
論文 参考訳(メタデータ) (2023-05-09T04:53:57Z) - A New Class of Explanations for Classifiers with Non-Binary Features [11.358487655918676]
分類器による意思決定の分析において,2種類の説明が文献に注目されている。
非バイナリ機能の存在下では,これらの説明が大幅に改善できることが示唆された。
必要かつ十分な理由が、決定の完全な理由の素因および因果関係であることが示されている。
論文 参考訳(メタデータ) (2023-04-28T11:05:46Z) - Inapproximability of sufficient reasons for decision trees [91.75627458356654]
本稿では,決定木に対する$delta$sufficient reasonの最小サイズを計算することの難しさについて述べる。
論文 参考訳(メタデータ) (2023-04-05T23:02:03Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - On the Computation of Necessary and Sufficient Explanations [11.358487655918676]
決定の背後にある完全な理由は、決定が下された理由を特徴付けるブール公式である。
本稿では、決定に必要な理由として、完全な理由の素因を言及する。
出力時間において最短の理由を列挙できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-20T04:39:41Z) - Trading Complexity for Sparsity in Random Forest Explanations [20.87501058448681]
決定木の厳格な多数を占める主要な要因である主な理由を紹介する。
さまざまなデータセットで実施された実験は、ランタイムの複雑さとスパシティのトレードオフの存在を明らかにしている。
論文 参考訳(メタデータ) (2021-08-11T15:19:46Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。