論文の概要: Provably Precise, Succinct and Efficient Explanations for Decision Trees
- arxiv url: http://arxiv.org/abs/2205.09569v1
- Date: Thu, 19 May 2022 13:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 23:48:04.275198
- Title: Provably Precise, Succinct and Efficient Explanations for Decision Trees
- Title(参考訳): 決定木に対する正確で簡潔で効率的な説明
- Authors: Yacine Izza, Alexey Ignatiev, Nina Narodytska, Martin C. Cooper and
Joao Marques-Silva
- Abstract要約: 決定木(DT)は解釈可能な分類器を具現化する。
DTの予測は厳密な説明で説明されるべきである。
デルタ関連集合は簡潔で正確であることを示す。
- 参考スコア(独自算出の注目度): 32.062312674333775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees (DTs) embody interpretable classifiers. DTs have been
advocated for deployment in high-risk applications, but also for explaining
other complex classifiers. Nevertheless, recent work has demonstrated that
predictions in DTs ought to be explained with rigorous approaches. Although
rigorous explanations can be computed in polynomial time for DTs, their size
may be beyond the cognitive limits of human decision makers. This paper
investigates the computation of {\delta}-relevant sets for DTs.
{\delta}-relevant sets denote explanations that are succinct and provably
precise. These sets represent generalizations of rigorous explanations, which
are precise with probability one, and so they enable trading off explanation
size for precision. The paper proposes two logic encodings for computing
smallest {\delta}-relevant sets for DTs. The paper further devises a
polynomial-time algorithm for computing {\delta}-relevant sets which are not
guaranteed to be subset-minimal, but for which the experiments show to be most
often subset-minimal in practice. The experimental results also demonstrate the
practical efficiency of computing smallest {\delta}-relevant sets.
- Abstract(参考訳): 決定木(DT)は解釈可能な分類器を具現化する。
DTは、リスクの高いアプリケーションへのデプロイだけでなく、他の複雑な分類器を説明するためにも提唱されている。
しかしながら、最近の研究は、DTの予測は厳密なアプローチで説明されるべきであることを示した。
厳密な説明はDTの多項式時間で計算できるが、その大きさは人間の意思決定者の認知限界を超えている可能性がある。
本稿では,DT に対する delta}-relevant set の計算について検討する。
{\delta}-関連集合は簡潔で証明可能な正確な説明を意味する。
これらの集合は厳密な説明の一般化を表しており、これは確率 1 で正確であり、正確な説明サイズを交換できる。
本稿では,DTの最小値集合を計算するための2つの論理符号化法を提案する。
この論文はさらに、部分集合が最小であることは保証されていないが、実験が実際には最も最小であることが示されている {\delta}-関係集合を計算するための多項式時間アルゴリズムを考案する。
実験結果は、最小の デルタ-関連集合の計算の実用的効率も示している。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - On Efficiently Explaining Graph-Based Classifiers [16.199563506727316]
本稿では,決定木 (DT) が解釈可能であるだけでなく,DT の 1 つのPI-Explanation を計算するためのリアルタイムアルゴリズムを提案する。
さらに,1つの対照的な説明を計算するためのリアルタイムアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:55:41Z) - Efficient Explanations With Relevant Sets [30.296628060841645]
本稿では,$delta$-relevant 集合の実用的限界に対処するための解について検討する。
$delta$-relevant 集合の部分集合の計算は NP であり、NP のオラクルへの多くの呼び出しで解ける。
論文 参考訳(メタデータ) (2021-06-01T14:57:58Z) - On Explaining Decision Trees [17.646704122091087]
決定木(DT)は、解釈可能な機械学習(ML)モデルとして知られるようになったものをエピトマイズする。
本稿では,DT の経路が PI-Explanation よりも任意に大きいような条件下では DT の解釈が困難であることを示す。
論文 参考訳(メタデータ) (2020-10-21T14:33:53Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - Information-Theoretic Probing with Minimum Description Length [74.29846942213445]
我々は,最小記述長 (MDL) を持つ情報理論探索法である標準プローブの代替案を提案する。
MDL Probingでは、ラベルを予測するためのプローブのトレーニングが、データを効果的に送信するための教えとして再キャストされる。
これらの手法は結果に一致し、標準プローブよりも情報的かつ安定であることを示す。
論文 参考訳(メタデータ) (2020-03-27T09:35:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。