論文の概要: On Tackling Explanation Redundancy in Decision Trees
- arxiv url: http://arxiv.org/abs/2205.09971v1
- Date: Fri, 20 May 2022 05:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 05:33:59.249154
- Title: On Tackling Explanation Redundancy in Decision Trees
- Title(参考訳): 決定木における記述冗長性に就て
- Authors: Yacine Izza, Alexey Ignatiev and Joao Marques-Silva
- Abstract要約: 決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
- 参考スコア(独自算出の注目度): 19.833126971063724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees (DTs) epitomize the ideal of interpretability of machine
learning (ML) models. The interpretability of decision trees motivates
explainability approaches by so-called intrinsic interpretability, and it is at
the core of recent proposals for applying interpretable ML models in high-risk
applications. The belief in DT interpretability is justified by the fact that
explanations for DT predictions are generally expected to be succinct. Indeed,
in the case of DTs, explanations correspond to DT paths. Since decision trees
are ideally shallow, and so paths contain far fewer features than the total
number of features, explanations in DTs are expected to be succinct, and hence
interpretable. This paper offers both theoretical and experimental arguments
demonstrating that, as long as interpretability of decision trees equates with
succinctness of explanations, then decision trees ought not be deemed
interpretable. The paper introduces logically rigorous path explanations and
path explanation redundancy, and proves that there exist functions for which
decision trees must exhibit paths with arbitrarily large explanation
redundancy. The paper also proves that only a very restricted class of
functions can be represented with DTs that exhibit no explanation redundancy.
In addition, the paper includes experimental results substantiating that path
explanation redundancy is observed ubiquitously in decision trees, including
those obtained using different tree learning algorithms, but also in a wide
range of publicly available decision trees. The paper also proposes
polynomial-time algorithms for eliminating path explanation redundancy, which
in practice require negligible time to compute. Thus, these algorithms serve to
indirectly attain irreducible, and so succinct, explanations for decision
trees.
- Abstract(参考訳): 決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
決定木の解釈可能性は、いわゆる内在的解釈可能性による説明可能性アプローチを動機付け、高リスクアプリケーションに解釈可能なMLモデルを適用するための最近の提案の中核にある。
DT解釈可能性の信念は、DT予測の説明が簡潔であると一般的に期待されているという事実によって正当化される。
実際、DTの場合、説明はDTパスに対応します。
決定木は理想的に浅いため、経路は特徴の総数よりもはるかに少ないため、DTの説明は簡潔であり、解釈可能であることが期待される。
本稿では,決定木の解釈可能性と説明の簡潔さが等価である限り,決定木を解釈可能とみなすべきではないことを示す理論的および実験的議論について述べる。
本論文は,論理的な厳密な経路説明と経路説明冗長性を導入し,決定木が任意に大きい経路を提示しなければならない関数が存在することを証明した。
論文はまた、非常に制限された関数のクラスのみが説明冗長性を持たないDTで表現できることを証明している。
さらに,本論文は,異なる木学習アルゴリズムを用いて得られたものを含む決定木において,経路説明冗長性を至るところで観測できることを実証する実験結果を含む。
本論文では,経路説明冗長性を解消するための多項式時間アルゴリズムも提案している。
したがって、これらのアルゴリズムは間接的に既約かつ簡潔な決定木の説明を達成するのに役立つ。
関連論文リスト
- Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - A Uniform Language to Explain Decision Trees [6.658444706223188]
提案した論理は,従来の文献で考慮した多種多様な解釈可能性クエリを表現できるだけでなく,ユーザが求める説明を最適化するさまざまな目的を指定できることを示す。
OPT-DT-FOILの評価をSATベースで実装し,産業規模の決定木を表現した。
論文 参考訳(メタデータ) (2023-10-18T00:07:38Z) - Social Interpretable Tree for Pedestrian Trajectory Prediction [75.81745697967608]
本稿では,このマルチモーダル予測課題に対処するため,SIT(Social Interpretable Tree)と呼ばれる木に基づく手法を提案する。
木の根から葉までの経路は、個々の将来の軌跡を表す。
ETH-UCYとStanford Droneのデータセットによる実験結果からは,手作り木にもかかわらず,我々の手法が最先端の手法の性能に適合または超えることを示した。
論文 参考訳(メタデータ) (2022-05-26T12:18:44Z) - Provably Precise, Succinct and Efficient Explanations for Decision Trees [32.062312674333775]
決定木(DT)は解釈可能な分類器を具現化する。
DTの予測は厳密な説明で説明されるべきである。
デルタ関連集合は簡潔で正確であることを示す。
論文 参考訳(メタデータ) (2022-05-19T13:54:52Z) - Trading Complexity for Sparsity in Random Forest Explanations [20.87501058448681]
決定木の厳格な多数を占める主要な要因である主な理由を紹介する。
さまざまなデータセットで実施された実験は、ランタイムの複雑さとスパシティのトレードオフの存在を明らかにしている。
論文 参考訳(メタデータ) (2021-08-11T15:19:46Z) - On Efficiently Explaining Graph-Based Classifiers [16.199563506727316]
本稿では,決定木 (DT) が解釈可能であるだけでなく,DT の 1 つのPI-Explanation を計算するためのリアルタイムアルゴリズムを提案する。
さらに,1つの対照的な説明を計算するためのリアルタイムアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:55:41Z) - CDT: Cascading Decision Trees for Explainable Reinforcement Learning [19.363238773001537]
カスケーディング決定木(CDT)は、より豊かな表現性を実現するために、決定経路に表現学習を適用する。
第2のコントリビューションとして、本研究では、木に基づく説明可能なモデルによる模倣学習によるブラックボックスポリシーの説明の限界を明らかにした。
論文 参考訳(メタデータ) (2020-11-15T15:25:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。