論文の概要: Generalized and Scalable Optimal Sparse Decision Trees
- arxiv url: http://arxiv.org/abs/2006.08690v3
- Date: Tue, 11 Aug 2020 03:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:24:49.356997
- Title: Generalized and Scalable Optimal Sparse Decision Trees
- Title(参考訳): 一般化されたスケーラブルな最適スパース決定木
- Authors: Jimmy Lin, Chudi Zhong, Diane Hu, Cynthia Rudin, Margo Seltzer
- Abstract要約: 様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
- 参考スコア(独自算出の注目度): 56.35541305670828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision tree optimization is notoriously difficult from a computational
perspective but essential for the field of interpretable machine learning.
Despite efforts over the past 40 years, only recently have optimization
breakthroughs been made that have allowed practical algorithms to find optimal
decision trees. These new techniques have the potential to trigger a paradigm
shift where it is possible to construct sparse decision trees to efficiently
optimize a variety of objective functions without relying on greedy splitting
and pruning heuristics that often lead to suboptimal solutions. The
contribution in this work is to provide a general framework for decision tree
optimization that addresses the two significant open problems in the area:
treatment of imbalanced data and fully optimizing over continuous variables. We
present techniques that produce optimal decision trees over a variety of
objectives including F-score, AUC, and partial area under the ROC convex hull.
We also introduce a scalable algorithm that produces provably optimal results
in the presence of continuous variables and speeds up decision tree
construction by several orders of magnitude relative to the state-of-the art.
- Abstract(参考訳): 決定木最適化は計算の観点からは難しいが、解釈可能な機械学習の分野には不可欠である。
過去40年にわたる努力にもかかわらず、実用的なアルゴリズムが最適な決定木を見つけることができる最適化のブレークスルーは、最近しか行われていない。
これらの新しい技術はパラダイムシフトを起こす可能性があり、疎い決定木を構築して、しばしば最適でない解につながる欲張りな分割や散逸するヒューリスティックに依存することなく、様々な目的関数を効率的に最適化することができる。
この研究の貢献は、この分野における2つの重要なオープン問題、すなわち不均衡なデータの処理と、連続変数に対する完全な最適化に対処する、意思決定ツリー最適化の一般的なフレームワークを提供することである。
本研究では, Fスコア, AUC, ROC凸船体下部分領域など, 様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数の存在下で最適な結果を生成するスケーラブルなアルゴリズムを導入し,最先端技術と比較して決定木構築を数桁高速化する。
関連論文リスト
- Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Quant-BnB: A Scalable Branch-and-Bound Method for Optimal Decision Trees
with Continuous Features [5.663538370244174]
本稿では,分岐とバウンド(BnB)に基づく新たな離散最適化手法を提案する。
提案アルゴリズムのQuant-BnBは,様々な実データセット上での浅い最適木に対する既存手法と比較して,大幅な高速化を示す。
論文 参考訳(メタデータ) (2022-06-23T17:19:29Z) - bsnsing: A decision tree induction method based on recursive optimal
boolean rule composition [2.28438857884398]
本稿では,決定木帰納過程における分割規則選択を最適化するMIP(Mixed-integer Programming)の定式化を提案する。
商用の解法よりも高速に実例を解くことができる効率的な探索解法を開発した。
論文 参考訳(メタデータ) (2022-05-30T17:13:57Z) - How Smart Guessing Strategies Can Yield Massive Scalability Improvements
for Sparse Decision Tree Optimization [18.294573939199438]
現在のアルゴリズムは、いくつかの実世界のデータセットに対して最適な木またはほぼ最適な木を見つけるために、しばしば非現実的な時間とメモリを必要とする。
本稿では,任意の分岐とバウンダリに基づく決定木アルゴリズムに適用可能なスマート推測手法を用いてこの問題に対処する。
提案手法では, 連続的特徴量, 木の大きさ, 最適決定木に対する誤差の下位境界を推定できる。
論文 参考訳(メタデータ) (2021-12-01T19:39:28Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Evolutionary algorithms for constructing an ensemble of decision trees [0.0]
本稿では,進化的アルゴリズムに基づく決定木とそのアンサンブルの誘導法を提案する。
我々のアプローチの主な違いは、決定木の実値ベクトル表現を使うことである。
いくつかの公開UCIデータセットを用いて,本手法の予測性能を検証した。
論文 参考訳(メタデータ) (2020-02-03T13:38:50Z) - Optimal Sparse Decision Trees [25.043477914272046]
この研究は、二変数に対する最適決定木のための最初の実用的なアルゴリズムを導入する。
このアルゴリズムは、探索空間と現代のシステム技術を減らす分析的境界の共設計である。
我々の実験はスケーラビリティ、スピード、最適性の証明の利点を強調します。
論文 参考訳(メタデータ) (2019-04-29T17:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。