論文の概要: Improving the Validitity of Decision Trees as Explanations
- arxiv url: http://arxiv.org/abs/2306.06777v1
- Date: Sun, 11 Jun 2023 21:14:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:47:51.518103
- Title: Improving the Validitity of Decision Trees as Explanations
- Title(参考訳): 説明としての決定木の有効性向上
- Authors: Jiri Nemecek and Tomas Pevny and Jakub Marecek
- Abstract要約: 葉ノード間の最大誤分類誤差を最小限に抑えるために,低深度木を訓練する。
次に、低深度木の各葉からさらに木ベースのモデルを停止する。
低深度木は簡単に説明できるが、低深度モデルと吊り木モデルの組み合わせによる総合的な統計性能は無限深度決定木により改善される。
- 参考スコア(独自算出の注目度): 5.220940151628734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In classification and forecasting with tabular data, one often utilizes
tree-based models. This can be competitive with deep neural networks on tabular
data [cf. Grinsztajn et al., NeurIPS 2022, arXiv:2207.08815] and, under some
conditions, explainable. The explainability depends on the depth of the tree
and the accuracy in each leaf of the tree. Here, we train a low-depth tree with
the objective of minimising the maximum misclassification error across each
leaf node, and then ``suspend'' further tree-based models (e.g., trees of
unlimited depth) from each leaf of the low-depth tree. The low-depth tree is
easily explainable, while the overall statistical performance of the combined
low-depth and suspended tree-based models improves upon decision trees of
unlimited depth trained using classical methods (e.g., CART) and is comparable
to state-of-the-art methods (e.g., well-tuned XGBoost).
- Abstract(参考訳): 表データによる分類と予測では、しばしば木に基づくモデルを用いる。
これは、グラフデータ(cf. Grinsztajn et al., NeurIPS 2022, arXiv:2207.08815]上のディープニューラルネットワークと競合し、いくつかの条件下では説明可能である。
説明性は木の深さと木の葉の精度に依存する。
ここでは,葉ノード毎の最大誤分類誤差を最小化することを目的として,低深度木を訓練し,低深度木の各葉からさらに「スペンド」を木ベースモデル(例えば,無限深さ木)とする。
低深度木は簡単に説明できるが、低深度モデルと吊り木モデルの組み合わせによる全体的な統計性能は、古典的手法(例えばCART)を用いて訓練された無限深度の決定木に改善され、最先端の手法(例えば、よく訓練されたXGBoost)に匹敵する。
関連論文リスト
- Learning a Decision Tree Algorithm with Transformers [80.49817544396379]
本稿では,従来のアルゴリズムから出力されたフィルタを用いてトランスフォーマーモデルを用いて,分類のための強力な決定木を生成するメタトレーについて紹介する。
次にMetaTreeをトレーニングして、強力な一般化パフォーマンスを実現するツリーを生成します。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Linear TreeShap [16.246232737115218]
決定木は解釈容易性から有名である。
精度を向上させるには、深い木や木々のアンサンブルを育てなければならない。
本稿では,より効率的かつ簡単なアルゴリズムであるリニアツリーサップを提案する。
論文 参考訳(メタデータ) (2022-09-16T23:17:15Z) - Social Interpretable Tree for Pedestrian Trajectory Prediction [75.81745697967608]
本稿では,このマルチモーダル予測課題に対処するため,SIT(Social Interpretable Tree)と呼ばれる木に基づく手法を提案する。
木の根から葉までの経路は、個々の将来の軌跡を表す。
ETH-UCYとStanford Droneのデータセットによる実験結果からは,手作り木にもかかわらず,我々の手法が最先端の手法の性能に適合または超えることを示した。
論文 参考訳(メタデータ) (2022-05-26T12:18:44Z) - A Neural Tangent Kernel Formula for Ensembles of Soft Trees with
Arbitrary Architectures [5.634825161148483]
ソフトツリーは、勾配法を用いて分割規則を更新する決定ツリーの活発に研究された変種である。
任意の木構造に対してソフトツリーアンサンブルによって誘導されるニューラルカーネルタンジェント(NTK)を定式化し解析する。
論文 参考訳(メタデータ) (2022-05-25T16:49:29Z) - Hierarchical Shrinkage: improving the accuracy and interpretability of
tree-based methods [10.289846887751079]
木構造を改変しないポストホックアルゴリズムである階層収縮(Hierarchical Shrinkage, HS)を導入する。
HSは、他の正規化技術と併用しても、決定木の予測性能を大幅に向上させる。
すべてのコードとモデルはGithubにある本格的なパッケージでリリースされている。
論文 参考訳(メタデータ) (2022-02-02T02:43:23Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - Tree in Tree: from Decision Trees to Decision Graphs [2.2336243882030025]
Tree in Tree decision graph (TnT)は、従来の決定木をより汎用的で強力な非巡回グラフに拡張するフレームワークである。
提案するモデルは,広く用いられている決定木に代わる,新しい,より効率的かつ正確な代替手段である。
論文 参考訳(メタデータ) (2021-10-01T13:20:05Z) - Robust estimation of tree structured models [0.0]
ノイズの多い二分データから、可能な木の小さな等価クラスまで、木を復元できることが示される。
また、Chow-Liuアルゴリズムがノイズデータから根本木を継続的に学習する際の特徴付けも提供する。
論文 参考訳(メタデータ) (2021-02-10T14:58:40Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。