論文の概要: bsnsing: A decision tree induction method based on recursive optimal
boolean rule composition
- arxiv url: http://arxiv.org/abs/2205.15263v1
- Date: Mon, 30 May 2022 17:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:05:51.660751
- Title: bsnsing: A decision tree induction method based on recursive optimal
boolean rule composition
- Title(参考訳): bsnsing:再帰的最適ブール規則合成に基づく決定木誘導法
- Authors: Yanchao Liu
- Abstract要約: 本稿では,決定木帰納過程における分割規則選択を最適化するMIP(Mixed-integer Programming)の定式化を提案する。
商用の解法よりも高速に実例を解くことができる効率的な探索解法を開発した。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a new mixed-integer programming (MIP) formulation to
optimize split rule selection in the decision tree induction process, and
develops an efficient search algorithm that is able to solve practical
instances of the MIP model faster than commercial solvers. The formulation is
novel for it directly maximizes the Gini reduction, an effective split
selection criterion which has never been modeled in a mathematical program for
its nonconvexity. The proposed approach differs from other optimal
classification tree models in that it does not attempt to optimize the whole
tree, therefore the flexibility of the recursive partitioning scheme is
retained and the optimization model is more amenable. The approach is
implemented in an open-source R package named bsnsing. Benchmarking experiments
on 75 open data sets suggest that bsnsing trees are the most capable of
discriminating new cases compared to trees trained by other decision tree codes
including the rpart, C50, party and tree packages in R. Compared to other
optimal decision tree packages, including DL8.5, OSDT, GOSDT and indirectly
more, bsnsing stands out in its training speed, ease of use and broader
applicability without losing in prediction accuracy.
- Abstract(参考訳): 本稿では,決定木誘導過程における分割規則選択を最適化する新しい混合整数型プログラミング(mip)方式を提案し,mipモデルの実用的インスタンスを商用解法よりも高速に解くことができる効率的な探索アルゴリズムを開発した。
この定式化は、その非凸性のために数学的プログラムでモデル化されたことのない効果的な分割選択基準であるジーニ還元を直接最大化する新しいものである。
提案手法は他の最適分類木モデルと異なり,木全体の最適化は行わないため,再帰的分割スキームの柔軟性は保たれ,最適化モデルはより快適である。
このアプローチはbsnsingというオープンソースのRパッケージで実装されている。
75のオープンデータセットのベンチマーク実験によると、bsnsingツリーはrpart、c50、party、treeパッケージを含む他の決定木コードでトレーニングされたツリーと比較して、新しいケースを識別する能力が最も高い。dl8.5、osdt、gosdt、間接的など他の最適な決定木パッケージと比較して、bsnsingはトレーニング速度、使いやすさ、予測精度を損なうことなく、より広い適用性で際立っている。
関連論文リスト
- Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Optimal randomized classification trees [0.0]
分類と回帰木(英: Classification and Regression Trees、CART)は、現代の統計学と機械学習における既成の技術である。
CARTはgreedyプロシージャによって構築され、分割予測変数と関連するしきい値を逐次決定する。
この強欲なアプローチは、木を非常に高速に木に分類するが、その性質上、それらの分類精度は他の最先端の手順と競合しないかもしれない。
論文 参考訳(メタデータ) (2021-10-19T11:41:12Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z) - Evolutionary algorithms for constructing an ensemble of decision trees [0.0]
本稿では,進化的アルゴリズムに基づく決定木とそのアンサンブルの誘導法を提案する。
我々のアプローチの主な違いは、決定木の実値ベクトル表現を使うことである。
いくつかの公開UCIデータセットを用いて,本手法の予測性能を検証した。
論文 参考訳(メタデータ) (2020-02-03T13:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。