論文の概要: Convex Polytope Trees
- arxiv url: http://arxiv.org/abs/2010.11266v1
- Date: Wed, 21 Oct 2020 19:38:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:05:22.598282
- Title: Convex Polytope Trees
- Title(参考訳): 凸ポリトープ木
- Authors: Mohammadreza Armandpour, Mingyuan Zhou
- Abstract要約: コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
- 参考スコア(独自算出の注目度): 57.56078843831244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A decision tree is commonly restricted to use a single hyperplane to split
the covariate space at each of its internal nodes. It often requires a large
number of nodes to achieve high accuracy, hurting its interpretability. In this
paper, we propose convex polytope trees (CPT) to expand the family of decision
trees by an interpretable generalization of their decision boundary. The
splitting function at each node of CPT is based on the logical disjunction of a
community of differently weighted probabilistic linear decision-makers, which
also geometrically corresponds to a convex polytope in the covariate space. We
use a nonparametric Bayesian prior at each node to infer the community's size,
encouraging simpler decision boundaries by shrinking the number of polytope
facets. We develop a greedy method to efficiently construct CPT and scalable
end-to-end training algorithms for the tree parameters when the tree structure
is given. We empirically demonstrate the efficiency of CPT over existing
state-of-the-art decision trees in several real-world classification and
regression tasks from diverse domains.
- Abstract(参考訳): 決定木は通常、内部ノードの各共変量空間を分割するために単一の超平面を使用するように制限される。
高い精度を達成するために、多くの場合、多数のノードを必要とする。
本稿では,その決定境界の解釈可能な一般化により,決定木の系統を拡大するための凸多面体木(CPT)を提案する。
cptの各ノードの分割関数は、異なる重み付けされた確率的線形決定メーカーのコミュニティの論理的分離に基づいており、これは共変量空間の凸ポリトープにも幾何学的に対応している。
我々は,各ノードに非パラメトリックベイズ事前を用いて,コミュニティの大きさを推定し,ポリトープの面数を小さくすることで,より単純な決定境界を推し進める。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
我々は,様々な領域における実世界の分類と回帰タスクにおいて,既存の最先端決定木に対するcptの有効性を実証的に実証する。
関連論文リスト
- Divide, Conquer, Combine Bayesian Decision Tree Sampling [1.1879716317856945]
決定木は、その柔軟性と解釈可能性のために予測モデルとして一般的に使用される。
本稿では,ベイズ推定手法を用いて決定木予測の不確かさを定量化する。
論文 参考訳(メタデータ) (2024-03-26T23:14:15Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Hierarchical Shrinkage: improving the accuracy and interpretability of
tree-based methods [10.289846887751079]
木構造を改変しないポストホックアルゴリズムである階層収縮(Hierarchical Shrinkage, HS)を導入する。
HSは、他の正規化技術と併用しても、決定木の予測性能を大幅に向上させる。
すべてのコードとモデルはGithubにある本格的なパッケージでリリースされている。
論文 参考訳(メタデータ) (2022-02-02T02:43:23Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Rethinking Learnable Tree Filter for Generic Feature Transform [71.77463476808585]
Learnable Tree Filterはセマンティックセグメンテーションのためのモデル構造保存関係に対する顕著なアプローチを示す。
幾何学的制約を緩和するために,マルコフ確率場として再構成して解析を行い,学習可能な不定項を導入する。
セマンティックセグメンテーションでは、ベルとホイッスルなしでCityscapesベンチマークでトップパフォーマンス(82.1% mIoU)を達成しています。
論文 参考訳(メタデータ) (2020-12-07T07:16:47Z) - A Flexible Pipeline for the Optimization of CSG Trees [3.622365857213782]
CSG木は、ブール集合演算と幾何学的プリミティブを組み合わせて幾何学を表現するための直感的だが強力な技法である。
本稿では,新しい木最適化手法と既存の木最適化手法を体系的に比較し,木編集性を重視したフレキシブルな処理パイプラインを提案する。
論文 参考訳(メタデータ) (2020-08-09T06:45:10Z) - The Max-Cut Decision Tree: Improving on the Accuracy and Running Time of
Decision Trees [0.0]
Max-Cut決定木は、分類決定木構築の標準的なベースラインモデル(正確にはCART Gini)に新しい修正を加えている。
実験の結果,このノードベースの局所化PCAは分類を劇的に改善すると同時に,ベースライン決定木に比べて計算時間を著しく短縮できることがわかった。
CIFAR-100の例では、CPU時間を94%削減しつつ、49%の精度向上を実現している。
論文 参考訳(メタデータ) (2020-06-25T00:47:21Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。