論文の概要: FoLDTree: A ULDA-Based Decision Tree Framework for Efficient Oblique Splits and Feature Selection
- arxiv url: http://arxiv.org/abs/2410.23147v1
- Date: Wed, 30 Oct 2024 16:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:07.906255
- Title: FoLDTree: A ULDA-Based Decision Tree Framework for Efficient Oblique Splits and Feature Selection
- Title(参考訳): FoLDTree: 効率的な斜め分割と特徴選択のためのULDAベースの決定木フレームワーク
- Authors: Siyu Wang,
- Abstract要約: LDATreeとFoldTreeは、Uncorrelated Linear Discriminant Analysis (ULDA)とForward ULDAを決定木構造に統合する。
LDATree と FoLDTree は軸直交およびその他の斜め決定木法より一貫して優れている。
- 参考スコア(独自算出の注目度): 6.087464679182875
- License:
- Abstract: Traditional decision trees are limited by axis-orthogonal splits, which can perform poorly when true decision boundaries are oblique. While oblique decision tree methods address this limitation, they often face high computational costs, difficulties with multi-class classification, and a lack of effective feature selection. In this paper, we introduce LDATree and FoLDTree, two novel frameworks that integrate Uncorrelated Linear Discriminant Analysis (ULDA) and Forward ULDA into a decision tree structure. These methods enable efficient oblique splits, handle missing values, support feature selection, and provide both class labels and probabilities as model outputs. Through evaluations on simulated and real-world datasets, LDATree and FoLDTree consistently outperform axis-orthogonal and other oblique decision tree methods, achieving accuracy levels comparable to the random forest. The results highlight the potential of these frameworks as robust alternatives to traditional single-tree methods.
- Abstract(参考訳): 従来の決定木は軸-直交分割によって制限され、真の決定境界が斜めである場合、性能は低下する。
斜め決定木法はこの制限に対処するが、高い計算コスト、多クラス分類の難しさ、効果的な特徴選択の欠如に直面することが多い。
本稿では, LDATree と FoLDTree の2つのフレームワークについて紹介する。このフレームワークは, Uncorrelated Linear Discriminant Analysis (ULDA) と Forward ULDAを決定木構造に統合する。
これらの方法は、効率的な斜め分割を可能にし、欠落した値を処理し、特徴の選択をサポートし、クラスラベルと確率の両方をモデル出力として提供する。
シミュレーションおよび実世界のデータセットの評価を通じて、LDATreeとFoldTreeは軸直交およびその他の斜め決定木法を一貫して上回り、ランダムフォレストに匹敵する精度のレベルを達成する。
その結果、従来の単一ツリーメソッドに対する堅牢な代替手段として、これらのフレームワークの可能性を浮き彫りにした。
関連論文リスト
- Causal Discovery and Classification Using Lempel-Ziv Complexity [2.7309692684728617]
本稿では,Lempel-Ziv複雑性から導かれる新しい因果度尺度と距離計量を導入する。
因果決定木と距離決定木の有効性を評価する。
論文 参考訳(メタデータ) (2024-11-04T08:24:56Z) - Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Tree in Tree: from Decision Trees to Decision Graphs [2.2336243882030025]
Tree in Tree decision graph (TnT)は、従来の決定木をより汎用的で強力な非巡回グラフに拡張するフレームワークである。
提案するモデルは,広く用いられている決定木に代わる,新しい,より効率的かつ正確な代替手段である。
論文 参考訳(メタデータ) (2021-10-01T13:20:05Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - The Max-Cut Decision Tree: Improving on the Accuracy and Running Time of
Decision Trees [0.0]
Max-Cut決定木は、分類決定木構築の標準的なベースラインモデル(正確にはCART Gini)に新しい修正を加えている。
実験の結果,このノードベースの局所化PCAは分類を劇的に改善すると同時に,ベースライン決定木に比べて計算時間を著しく短縮できることがわかった。
CIFAR-100の例では、CPU時間を94%削減しつつ、49%の精度向上を実現している。
論文 参考訳(メタデータ) (2020-06-25T00:47:21Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。