論文の概要: Decision Tree Embedding by Leaf-Means
- arxiv url: http://arxiv.org/abs/2512.01819v1
- Date: Mon, 01 Dec 2025 15:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.942281
- Title: Decision Tree Embedding by Leaf-Means
- Title(参考訳): リーフ平均による決定木埋め込み
- Authors: Cencheng Shen, Yuexiao Dong, Carey E. Priebe,
- Abstract要約: 決定木埋め込み(Decision Tree Embedding, DTE)は、訓練された分類木の葉の分割を利用して解釈可能な特徴表現を構築する、迅速かつ効果的な方法である。
各葉領域内のサンプル手段をアンカーポイントとして使用することにより、DTEは木の分割構造によって定義された埋め込み空間に入力をマップする。
軽度条件下での条件密度の保存を含む,DTEの個体群レベルの理論的特性を確立した。
- 参考スコア(独自算出の注目度): 11.318593165494724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision trees and random forest remain highly competitive for classification on medium-sized, standard datasets due to their robustness, minimal preprocessing requirements, and interpretability. However, a single tree suffers from high estimation variance, while large ensembles reduce this variance at the cost of substantial computational overhead and diminished interpretability. In this paper, we propose Decision Tree Embedding (DTE), a fast and effective method that leverages the leaf partitions of a trained classification tree to construct an interpretable feature representation. By using the sample means within each leaf region as anchor points, DTE maps inputs into an embedding space defined by the tree's partition structure, effectively circumventing the high variance inherent in decision-tree splitting rules. We further introduce an ensemble extension based on additional bootstrap trees, and pair the resulting embedding with linear discriminant analysis for classification. We establish several population-level theoretical properties of DTE, including its preservation of conditional density under mild conditions and a characterization of the resulting classification error. Empirical studies on synthetic and real datasets demonstrate that DTE strikes a strong balance between accuracy and computational efficiency, outperforming or matching random forest and shallow neural networks while requiring only a fraction of their training time in most cases. Overall, the proposed DTE method can be viewed either as a scalable decision tree classifier that improves upon standard split rules, or as a neural network model whose weights are learned from tree-derived anchor points, achieving an intriguing integration of both paradigms.
- Abstract(参考訳): 決定木とランダム林は、その頑丈さ、最小の事前処理要件、解釈可能性のために、中規模の標準データセットの分類に非常に競争力がある。
しかし、単一の木は高い推定分散に悩まされ、大きなアンサンブルは計算オーバーヘッドと解釈可能性の低下を犠牲にしてこの分散を減少させる。
本稿では,学習した分類木の葉の分割を利用して,解釈可能な特徴表現を構築する,高速かつ効果的な手法である決定木埋め込み(DTE)を提案する。
各葉領域内のサンプル手段をアンカーポイントとして使用することにより、DTEは、木の分割構造によって定義された埋め込み空間に入力をマッピングし、決定木分割ルールに固有の高分散を効果的に回避する。
さらに,追加のブートストラップ木に基づくアンサンブル拡張を導入し,その結果を線形判別分析と組み合わせて分類する。
軽度条件下での条件密度の保存や,結果の分類誤差のキャラクタリゼーションなど,DTEの集団レベルの理論的特性を確立した。
合成データセットと実データセットに関する実証的研究により、DTEは精度と計算効率のバランスが強く、ランダムフォレストと浅層ニューラルネットワークよりも優れ、ほとんどの場合、トレーニング時間のほんの一部しか必要としないことが示された。
全体として、提案手法は、標準的な分割ルールを改善するスケーラブルな決定木分類器、あるいは、ツリー由来のアンカーポイントからウェイトを学習し、両方のパラダイムの興味深い統合を実現するニューラルネットワークモデルとみなすことができる。
関連論文リスト
- ZTree: A Subgroup Identification Based Decision Tree Learning Framework [3.119681354260829]
本稿では,新しい決定木学習フレームワークZTreeを提案する。
CARTの伝統的な純度に基づく分割を統計学的に原則化されたサブグループ識別に置き換える。
ZTreeは、特に低データレシエーションにおいて、一貫して強力なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2025-09-16T05:25:16Z) - TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based Modeling [65.46347858249295]
TreePOは自己誘導型ロールアウトアルゴリズムで、シーケンス生成を木構造検索プロセスとして見る。
TreePOは基本的に、探索の多様性を保存または強化しながら、更新毎の計算負担を削減します。
論文 参考訳(メタデータ) (2025-08-24T16:52:37Z) - Hierarchical Quantized Diffusion Based Tree Generation Method for Hierarchical Representation and Lineage Analysis [49.00783841494125]
HDTreeは階層的潜在空間内の木関係を、統一的な階層的コードブックと量子化拡散プロセスを用いてキャプチャする。
HDTreeの有効性は、汎用データセットと単一セルデータセットの比較によって示される。
これらの貢献は階層的な系統解析のための新しいツールを提供し、より正確で効率的な細胞分化経路のモデリングを可能にする。
論文 参考訳(メタデータ) (2025-06-29T15:19:13Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Explainable Clustering Beyond Worst-Case Guarantees [5.65604054654671]
Moshkovitz, Dasgupta, Rashtchian, Frost (ICML 2020) による説明可能なクラスタリング問題について検討した。
説明可能なクラスタリングの目標は、軸に沿った決定木に$K$のリーフと最小のクラスタリングコスト(すべてのリーフがクラスタである)を適合させることだ。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Adapting tree-based multiple imputation methods for multi-level data? A simulation study [0.0]
木に基づく計算法は、観測間の独立を暗黙的に仮定する。
オルタナティブツリーベースのアプローチは、個々のレベルのデータに対して有望であるが、階層的な文脈では探索されていない。
論文 参考訳(メタデータ) (2024-01-25T13:12:50Z) - Regularized impurity reduction: Accurate decision trees with complexity
guarantees [20.170305081348328]
本稿では,木複雑性の対数近似を保証する木推論アルゴリズムを提案する。
改良されたアルゴリズムは予測精度と木の複雑さのバランスが良好である。
論文 参考訳(メタデータ) (2022-08-23T13:15:19Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。