論文の概要: Succinct Explanations With Cascading Decision Trees
- arxiv url: http://arxiv.org/abs/2010.06631v1
- Date: Tue, 13 Oct 2020 18:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:54:52.569876
- Title: Succinct Explanations With Cascading Decision Trees
- Title(参考訳): カスケード決定木による帰属説明
- Authors: Jialu Zhang, Mark Santolucito and Ruzica Piskac
- Abstract要約: そこで我々はCascading Decision Treesと呼ぶ新しい決定木モデルを提案する。
私たちの重要な洞察は、意思決定パスと説明パスの概念を分離することです。
カスケード決定木を新しいサンプルに適用すると、非常に短く簡潔な説明が得られる。
- 参考スコア(独自算出の注目度): 5.877164140116815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classic decision tree learning is a binary classification algorithm that
constructs models with first-class transparency - every classification has a
directly derivable explanation. However, learning decision trees on modern
datasets generates large trees, which in turn generate decision paths of
excessive depth, obscuring the explanation of classifications. To improve the
comprehensibility of classifications, we propose a new decision tree model that
we call Cascading Decision Trees. Cascading Decision Trees shorten the size of
explanations of classifications, without sacrificing model performance overall.
Our key insight is to separate the notion of a decision path and an explanation
path. Utilizing this insight, instead of having one monolithic decision tree,
we build several smaller decision subtrees and cascade them in sequence. Our
cascading decision subtrees are designed to specifically target explanations
for positive classifications. This way each subtree identifies the smallest set
of features that can classify as many positive samples as possible, without
misclassifying any negative samples. Applying cascading decision trees to new
samples results in a significantly shorter and succinct explanation, if one of
the subtrees detects a positive classification. In that case, we immediately
stop and report the decision path of only the current subtree to the user as an
explanation for the classification. We evaluate our algorithm on standard
datasets, as well as new real-world applications and find that our model
shortens the explanation depth by over 40.8% for positive classifications
compared to the classic decision tree model.
- Abstract(参考訳): 古典的な決定木学習(classic decision tree learning)は、一級の透明性を持つモデルを構築するバイナリ分類アルゴリズムである。
しかし、現代のデータセット上の決定木を学習すると大きな木が生成されるため、過剰な深さの決定経路が生成される。
分類の理解性を向上させるため,我々はcascading decision treeと呼ばれる新しい決定木モデルを提案する。
cascading decision treeは、全体のモデルパフォーマンスを犠牲にすることなく、分類の説明のサイズを短くする。
私たちの重要な洞察は、決定パスと説明パスの概念を分離することです。
この洞察を利用することで、モノリシックな決定木をひとつ持つ代わりに、いくつかの小さな決定木を構築し、それらを順番にカスケードする。
当社のcascading decisionサブツリーは、ポジティブな分類の説明をターゲットとして設計されています。
このようにして、各サブツリーは可能な限り多くの正のサンプルを分類できる最小の機能セットを識別する。
カスケード決定木を新しいサンプルに適用すると、サブツリーの1つが正の分類を検出する場合、非常に短く簡潔な説明が得られる。
この場合、分類の説明として、現在のサブツリーのみの決定パスを直ちに停止し、ユーザに報告する。
標準データセットと新しい実世界のアプリケーションでアルゴリズムを評価し、従来の決定木モデルと比較して、正の分類で説明の深さを40.8%以上短縮することを示した。
関連論文リスト
- ODTE -- An ensemble of multi-class SVM-based oblique decision trees [0.7182449176083623]
ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
論文 参考訳(メタデータ) (2024-11-20T14:58:32Z) - Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Optimal randomized classification trees [0.0]
分類と回帰木(英: Classification and Regression Trees、CART)は、現代の統計学と機械学習における既成の技術である。
CARTはgreedyプロシージャによって構築され、分割予測変数と関連するしきい値を逐次決定する。
この強欲なアプローチは、木を非常に高速に木に分類するが、その性質上、それらの分類精度は他の最先端の手順と競合しないかもしれない。
論文 参考訳(メタデータ) (2021-10-19T11:41:12Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Tree in Tree: from Decision Trees to Decision Graphs [2.2336243882030025]
Tree in Tree decision graph (TnT)は、従来の決定木をより汎用的で強力な非巡回グラフに拡張するフレームワークである。
提案するモデルは,広く用いられている決定木に代わる,新しい,より効率的かつ正確な代替手段である。
論文 参考訳(メタデータ) (2021-10-01T13:20:05Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。