論文の概要: LHT: Statistically-Driven Oblique Decision Trees for Interpretable Classification
- arxiv url: http://arxiv.org/abs/2505.04139v1
- Date: Wed, 07 May 2025 05:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.98053
- Title: LHT: Statistically-Driven Oblique Decision Trees for Interpretable Classification
- Title(参考訳): LHT:解釈可能な分類のための統計的駆動型斜め決定木
- Authors: Hongyi Li, Jun Xu, William Ward Armstrong,
- Abstract要約: 本稿では,表現的・解釈可能な分類のための新しい斜め決定木モデルであるLHTについて紹介する。
LHTは、分割超平面を構築するための非定性的、統計的に駆動されるアプローチによって、自分自身を根本的に区別する。
- 参考スコア(独自算出の注目度): 6.551174160819771
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the Learning Hyperplane Tree (LHT), a novel oblique decision tree model designed for expressive and interpretable classification. LHT fundamentally distinguishes itself through a non-iterative, statistically-driven approach to constructing splitting hyperplanes. Unlike methods that rely on iterative optimization or heuristics, LHT directly computes the hyperplane parameters, which are derived from feature weights based on the differences in feature expectations between classes within each node. This deterministic mechanism enables a direct and well-defined hyperplane construction process. Predictions leverage a unique piecewise linear membership function within leaf nodes, obtained via local least-squares fitting. We formally analyze the convergence of the LHT splitting process, ensuring that each split yields meaningful, non-empty partitions. Furthermore, we establish that the time complexity for building an LHT up to depth $d$ is $O(mnd)$, demonstrating the practical feasibility of constructing trees with powerful oblique splits using this methodology. The explicit feature weighting at each split provides inherent interpretability. Experimental results on benchmark datasets demonstrate LHT's competitive accuracy, positioning it as a practical, theoretically grounded, and interpretable alternative in the landscape of tree-based models. The implementation of the proposed method is available at https://github.com/Hongyi-Li-sz/LHT_model.
- Abstract(参考訳): 本稿では,表現的・解釈可能な分類のための新しい斜め決定木モデルであるLHTについて紹介する。
LHTは、分割超平面を構築するための非定性的、統計的に駆動されるアプローチによって、自分自身を根本的に区別する。
反復最適化やヒューリスティックスに依存する手法とは異なり、LHTは各ノード内のクラス間の期待値の違いに基づいて特徴量から得られる超平面パラメータを直接計算する。
この決定論的メカニズムは、直接的かつ明確に定義された超平面構築プロセスを可能にする。
予測は、局所的な最小二乗フィッティングによって得られる葉ノード内の一意的な線形メンバシップ関数を利用する。
我々は、LHT分割過程の収束を正式に分析し、各分割が意味のある非空分割を確実にする。
さらに、LHTを深さ$d$まで構築する際の時間的複雑さが$O(mnd)$であることを確認し、この手法を用いて強力な斜め分割を持つ木を構築する実践可能性を示す。
各分割における明示的な特徴重み付けは、固有の解釈可能性を提供する。
ベンチマークデータセットの実験結果は、LHTの競合精度を示し、ツリーベースモデルのランドスケープにおいて、実用的で理論的に基礎付けられ、解釈可能な代替品として位置づけている。
提案手法の実装はhttps://github.com/Hongyi-Li-sz/LHT_modelで確認できる。
関連論文リスト
- RO-FIGS: Efficient and Expressive Tree-Based Ensembles for Tabular Data [10.610270769561811]
ツリーベースモデルは非形式的特徴に対して堅牢であり、非滑らかで複雑な決定境界を正確に捉えることができる。
我々はRandom oblique Fast Interpretable Greedy-Tree Sums (RO-FIGS)を提案する。
RO-FIGSはFast Interpretable Greedy-Tree Sumsの上に構築され、斜めまたは多変量分割で木を学習することで拡張する。
RO-FIGSを22の実世界のデータセット上で評価し、他の木とニューラルネットワークに基づく手法よりも優れた性能とはるかに小さなモデルを示す。
論文 参考訳(メタデータ) (2025-04-09T14:35:24Z) - Learning Hyperplane Tree: A Piecewise Linear and Fully Interpretable Decision-making Framework [6.551174160819771]
LHTの構造は単純で効率的であり、複数の超平面を用いてデータを分割し、ターゲットと非ターゲットの標本を段階的に区別する。
LHTは, 各分岐ブロックの透過度が高く, 解釈可能であり, 各特徴の分類への寄与が明らかである。
論文 参考訳(メタデータ) (2025-01-15T01:59:24Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
一般的な類似性に基づく機能アップサンプリングパイプラインが提案されている。
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
我々は,モーザイクアーティファクトを緩和する上ではシンプルだが有効であるHR特徴に対して,きめ細かな近傍選択戦略を開発する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - Shapley-NAS: Discovering Operation Contribution for Neural Architecture
Search [96.20505710087392]
ニューラルアーキテクチャ探索のための演算寄与度(Shapley-NAS)を評価するためのShapley値に基づく手法を提案する。
提案手法は,光探索コストに比例して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T14:41:49Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Oblique Predictive Clustering Trees [6.317966126631351]
予測クラスタリングツリー(PCT)は、構造化された出力予測を含む様々な予測モデリングタスクを解決するために使用できる。
本稿では,これらの制約に対処可能な斜めの予測クラスタリング木を提案する。
6つの予測モデルタスクのための60のベンチマークデータセットに対して提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2020-07-27T14:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。