論文の概要: On Explaining Decision Trees
- arxiv url: http://arxiv.org/abs/2010.11034v1
- Date: Wed, 21 Oct 2020 14:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:56:29.419947
- Title: On Explaining Decision Trees
- Title(参考訳): 決定木の説明について
- Authors: Yacine Izza, Alexey Ignatiev, and Joao Marques-Silva
- Abstract要約: 決定木(DT)は、解釈可能な機械学習(ML)モデルとして知られるようになったものをエピトマイズする。
本稿では,DT の経路が PI-Explanation よりも任意に大きいような条件下では DT の解釈が困難であることを示す。
- 参考スコア(独自算出の注目度): 17.646704122091087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision trees (DTs) epitomize what have become to be known as interpretable
machine learning (ML) models. This is informally motivated by paths in DTs
being often much smaller than the total number of features. This paper shows
that in some settings DTs can hardly be deemed interpretable, with paths in a
DT being arbitrarily larger than a PI-explanation, i.e. a subset-minimal set of
feature values that entails the prediction. As a result, the paper proposes a
novel model for computing PI-explanations of DTs, which enables computing one
PI-explanation in polynomial time. Moreover, it is shown that enumeration of
PI-explanations can be reduced to the enumeration of minimal hitting sets.
Experimental results were obtained on a wide range of publicly available
datasets with well-known DT-learning tools, and confirm that in most cases DTs
have paths that are proper supersets of PI-explanations.
- Abstract(参考訳): 決定木(DT)は、解釈可能な機械学習(ML)モデルとして知られるようになったものをエピトマイズする。
これは、DTのパスが機能の総数よりもはるかに小さいことによる非公式な動機付けである。
本稿では、いくつかの設定においてdtの経路は、pi-explanationよりも任意に大きい、すなわち、予測を伴う特徴値のサブセット最小集合を含む、解釈不可能であることを示す。
そこで本論文では, 多項式時間で一つの pi 展開を計算できる dts の pi 展開計算モデルを提案する。
さらに、PI-エクスラレーションの列挙は最小のヒットセットの列挙に還元できることが示されている。
DT学習ツールで広く公開されているデータセットに対して実験結果が得られ、ほとんどの場合、DTはPI説明の適切なスーパーセットであるパスを持っていることを確認した。
関連論文リスト
- Vanilla Gradient Descent for Oblique Decision Trees [7.236325471627686]
ニューラルネットワーク(NN)としての(ハード,斜め)DTの符号化法を提案する。
DTSemNetを用いて学習した斜めDTは、最先端技術を用いて学習した同様の大きさの斜めDTよりも正確であることを示す実験である。
また、DTSemNetは、物理入力による強化学習(RL)設定において、NNポリシーと同じくらい効率的にDTポリシーを学習できることを実験的に実証した。
論文 参考訳(メタデータ) (2024-08-17T08:18:40Z) - Bayesian Prediction-Powered Inference [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
本稿では,ベイズ推定に基づくPPIのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T18:08:58Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - When does Privileged Information Explain Away Label Noise? [66.9725683097357]
ラベルノイズを除去する際のPIの特性の違いによる役割について検討する。
ネットワークがノイズの多いデータとクリーンなデータを容易に区別できる場合、PIが最も役立ちます。
本稿では,最新のPI手法のいくつかの改良を提案し,ラベルノイズに対処する手段としてのPIの可能性を示す。
論文 参考訳(メタデータ) (2023-03-03T09:25:39Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Provably Precise, Succinct and Efficient Explanations for Decision Trees [32.062312674333775]
決定木(DT)は解釈可能な分類器を具現化する。
DTの予測は厳密な説明で説明されるべきである。
デルタ関連集合は簡潔で正確であることを示す。
論文 参考訳(メタデータ) (2022-05-19T13:54:52Z) - Scalable Sampling for Nonsymmetric Determinantal Point Processes [47.18450267217498]
M$アイテムの集合上の決定点過程(DPP)は、対称的なカーネル行列によってパラメータ化されるモデルである。
最近の研究は、非対称DPP(NDPPs)を生じるカーネル対称性の制約を取り除くことで、機械学習アプリケーションにおいて大幅な性能向上が期待できることを示している。
コールスキー分解に基づくDPPサンプリングアルゴリズムは1つしか知られておらず、NDPPにも直接適用できる。
NDPPカーネルに特定の構造的制約を課すことで、カーネルのランクに依存する方法で拒絶率を制限できることが示される。
論文 参考訳(メタデータ) (2022-01-20T19:21:59Z) - On Efficiently Explaining Graph-Based Classifiers [16.199563506727316]
本稿では,決定木 (DT) が解釈可能であるだけでなく,DT の 1 つのPI-Explanation を計算するためのリアルタイムアルゴリズムを提案する。
さらに,1つの対照的な説明を計算するためのリアルタイムアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:55:41Z) - On Explaining Random Forests with SAT [3.5408022972081685]
ランダムフォレスト(RF)は機械学習(ML)分類器として最も広く使われている。
RFは解釈できないが、RFの説明を計算するための専門的な非ヒューリスティックなアプローチは存在しない。
本稿では,RFの計算説明のコントラスト化のための命題符号化を提案し,SATソルバによるPI説明の発見を可能にする。
論文 参考訳(メタデータ) (2021-05-21T11:05:14Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。