論文の概要: Empowering Decision Trees via Shape Function Branching
- arxiv url: http://arxiv.org/abs/2510.19040v1
- Date: Tue, 21 Oct 2025 19:43:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.621958
- Title: Empowering Decision Trees via Shape Function Branching
- Title(参考訳): 形状関数分岐による決定木強化
- Authors: Nakul Upadhya, Eldan Cohen,
- Abstract要約: 本稿では、各内部ノードが学習可能な軸方向の形状関数を1つの特徴に適用する、決定木(Shape Generalized Tree, SGT)の新たな一般化を提案する。
SGTは本質的に解釈可能であり、モデルの決定機構の直感的で視覚的な説明を提供する。
各種データセットを用いた実験により,SGTは従来の軸方向の線形木に比べてモデルサイズが小さく,優れた性能を示した。
- 参考スコア(独自算出の注目度): 3.469167914196103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees are prized for their interpretability and strong performance on tabular data. Yet, their reliance on simple axis-aligned linear splits often forces deep, complex structures to capture non-linear feature effects, undermining human comprehension of the constructed tree. To address this limitation, we propose a novel generalization of a decision tree, the Shape Generalized Tree (SGT), in which each internal node applies a learnable axis-aligned shape function to a single feature, enabling rich, non-linear partitioning in one split. As users can easily visualize each node's shape function, SGTs are inherently interpretable and provide intuitive, visual explanations of the model's decision mechanisms. To learn SGTs from data, we propose ShapeCART, an efficient induction algorithm for SGTs. We further extend the SGT framework to bivariate shape functions (S$^2$GT) and multi-way trees (SGT$_K$), and present Shape$^2$CART and ShapeCART$_K$, extensions to ShapeCART for learning S$^2$GTs and SGT$_K$s, respectively. Experiments on various datasets show that SGTs achieve superior performance with reduced model size compared to traditional axis-aligned linear trees.
- Abstract(参考訳): 決定木は、その解釈可能性と表データの強い性能で評価されている。
しかし、単純な軸方向の線形分割への依存は、しばしば深い複雑な構造を強制して非線形の特徴効果を捉え、構築された木の人間の理解を損なう。
この制限に対処するために、各内部ノードが学習可能な軸方向の形状関数を1つの特徴に適用し、リッチで非線形な分割を1つの分割で実現する、決定木(Shape Generalized Tree, SGT)の新たな一般化を提案する。
ユーザが各ノードの形状関数を簡単に視覚化できるため、SGTは本質的に解釈可能であり、モデルの決定機構の直感的で視覚的な説明を提供する。
データからSGTを学習するために,SGTの効率的な誘導アルゴリズムであるShapeCARTを提案する。
さらに、SGTフレームワークを2変数の形状関数(S$^2$GT)とマルチウェイツリー(SGT$_K$)に拡張し、現在Shape$^2$CARTとShapeCART$_K$、ShapeCARTを拡張してS$^2$GTとSGT$_K$sを学習する。
各種データセットを用いた実験により,SGTは従来の軸方向の線形木に比べてモデルサイズが小さく,優れた性能を示した。
関連論文リスト
- Beyond Softmax: A Natural Parameterization for Categorical Random Variables [61.709831225296305]
階層的なバイナリ分割のシーケンスで構成される関数である$textitcatnat$関数を紹介します。
実験により,提案した関数は学習効率を向上し,一貫した試験性能を特徴とするモデルが得られることを示した。
論文 参考訳(メタデータ) (2025-09-29T12:55:50Z) - RO-FIGS: Efficient and Expressive Tree-Based Ensembles for Tabular Data [10.610270769561811]
ツリーベースモデルは非形式的特徴に対して堅牢であり、非滑らかで複雑な決定境界を正確に捉えることができる。
我々はRandom oblique Fast Interpretable Greedy-Tree Sums (RO-FIGS)を提案する。
RO-FIGSはFast Interpretable Greedy-Tree Sumsの上に構築され、斜めまたは多変量分割で木を学習することで拡張する。
RO-FIGSを22の実世界のデータセット上で評価し、他の木とニューラルネットワークに基づく手法よりも優れた性能とはるかに小さなモデルを示す。
論文 参考訳(メタデータ) (2025-04-09T14:35:24Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - GRANDE: Gradient-Based Decision Tree Ensembles for Tabular Data [9.107782510356989]
そこで本研究では,エンドツーエンドの勾配勾配勾配を用いた軸方向決定木アンサンブルの学習手法を提案する。
Grandeはツリーアンサンブルの密度の高い表現に基づいており、ストレートスルー演算子でバックプロパゲーションを使用することができる。
提案手法は,ほとんどのデータセットにおいて,既存の勾配ブースティングおよびディープラーニングフレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-29T10:49:14Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Generalization Properties of Decision Trees on Real-valued and
Categorical Features [2.370481325034443]
データ分割の観点から二分決定木を再検討する。
我々は3種類の特徴を考察する: 実数値、分類的順序、分類的名目で、それぞれ異なる分割規則を持つ。
論文 参考訳(メタデータ) (2022-10-18T21:50:24Z) - TREE-G: Decision Trees Contesting Graph Neural Networks [33.364191419692105]
TREE-Gは、グラフデータに特化した新しい分割関数を導入することで、標準的な決定木を変更する。
グラフニューラルネットワーク(GNN)やグラフカーネル(Graph Kernels)などのグラフ学習アルゴリズムでは,TREE-Gが他のツリーベースモデルより一貫して優れていることが示されています。
論文 参考訳(メタデータ) (2022-07-06T15:53:17Z) - Fast Interpretable Greedy-Tree Sums [8.268938983372452]
Fast Interpretable Greedy-Tree Sums (FIGS) は、CARTアルゴリズムを一般化し、要約において柔軟な数の木を成長させる。
G-FIGSは、ドメイン知識を反映し、感度や解釈性を犠牲にすることなく(CARTよりも20%も向上した)特異性を享受するCDIを導出する。
Bagging-FIGSは、現実世界のデータセット上でランダムなフォレストやXGBoostと競合するパフォーマンスを享受している。
論文 参考訳(メタデータ) (2022-01-28T04:50:37Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Rethinking Learnable Tree Filter for Generic Feature Transform [71.77463476808585]
Learnable Tree Filterはセマンティックセグメンテーションのためのモデル構造保存関係に対する顕著なアプローチを示す。
幾何学的制約を緩和するために,マルコフ確率場として再構成して解析を行い,学習可能な不定項を導入する。
セマンティックセグメンテーションでは、ベルとホイッスルなしでCityscapesベンチマークでトップパフォーマンス(82.1% mIoU)を達成しています。
論文 参考訳(メタデータ) (2020-12-07T07:16:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。