論文の概要: Anytime Optimal Decision Tree Learning with Continuous Features
- arxiv url: http://arxiv.org/abs/2601.14765v1
- Date: Wed, 21 Jan 2026 08:40:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.294506
- Title: Anytime Optimal Decision Tree Learning with Continuous Features
- Title(参考訳): 連続した特徴を持つ最適決定木学習
- Authors: Harold Kiossou, Pierre Schaus, Siegfried Nijssen,
- Abstract要約: 連続した特徴を持つ最適決定木を学習するためのエレガントな正確なアルゴリズムが提案された。
これは、各分割の左サブツリーを完全に最適化し、対応する右サブツリーを探索するディープファースト検索最適化戦略に依存している。
我々は,木構造全体にわたってより均等に計算作業を分散し,限られた不整合探索を活用する,時空かつ完全なアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.798697306330988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, significant progress has been made on algorithms for learning optimal decision trees, primarily in the context of binary features. Extending these methods to continuous features remains substantially more challenging due to the large number of potential splits for each feature. Recently, an elegant exact algorithm was proposed for learning optimal decision trees with continuous features; however, the rapidly increasing computational time limits its practical applicability to shallow depths (typically 3 or 4). It relies on a depth-first search optimization strategy that fully optimizes the left subtree of each split before exploring the corresponding right subtree. While effective in finding optimal solutions given sufficient time, this strategy can lead to poor anytime behavior: when interrupted early, the best-found tree is often highly unbalanced and suboptimal. In such cases, purely greedy methods such as C4.5 may, paradoxically, yield better solutions. To address this limitation, we propose an anytime, yet complete approach leveraging limited discrepancy search, distributing the computational effort more evenly across the entire tree structure, and thus ensuring that a high-quality decision tree is available at any interruption point. Experimental results show that our approach outperforms the existing one in terms of anytime performance.
- Abstract(参考訳): 近年, 最適決定木を学習するためのアルゴリズムが, 主に二分的特徴の文脈において, 大きく進歩している。
これらのメソッドを連続的な機能に拡張することは、機能ごとに多くの潜在的な分割があるため、依然としてかなり難しい。
近年,連続的な特徴を持つ最適決定木を学習するためのエレガントな厳密なアルゴリズムが提案されているが,計算時間は急速に増加し,その実用性は浅層(典型的には3ないし4)に制限されている。
これは、各分割の左サブツリーを完全に最適化し、対応する右サブツリーを探索するディープファースト検索最適化戦略に依存している。
十分な時間を与える最適解を見つけるのに効果的であるが、この戦略はいつでも貧弱な行動を引き起こす可能性がある。
このような場合、C4.5のような純粋に欲求的な方法では、パラドックス的により良い解が得られる。
この制限に対処するために、制限された不一致探索を利用して、木構造全体にわたってより均等に計算作業を分散し、高品質な決定木が任意の割り込み点で利用可能であることを保証し、いつでも完全なアプローチを提案する。
実験結果から,本手法は既存の手法よりも常に優れた性能を示すことがわかった。
関連論文リスト
- Near Optimal Decision Trees in a SPLIT Second [16.99892407039875]
決定木最適化は、解釈可能な機械学習の基本である。
最近のアプローチでは、分岐と動的プログラミングとのバウンドを使って、グローバルな最適化が見つかる。
我々はSPLITと呼ばれるアルゴリズムのファミリーを導入し、この理想的なバランスを達成するために私たちをかなり前進させます。
論文 参考訳(メタデータ) (2025-02-21T22:57:17Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Quant-BnB: A Scalable Branch-and-Bound Method for Optimal Decision Trees
with Continuous Features [5.663538370244174]
本稿では,分岐とバウンド(BnB)に基づく新たな離散最適化手法を提案する。
提案アルゴリズムのQuant-BnBは,様々な実データセット上での浅い最適木に対する既存手法と比較して,大幅な高速化を示す。
論文 参考訳(メタデータ) (2022-06-23T17:19:29Z) - How Smart Guessing Strategies Can Yield Massive Scalability Improvements
for Sparse Decision Tree Optimization [18.294573939199438]
現在のアルゴリズムは、いくつかの実世界のデータセットに対して最適な木またはほぼ最適な木を見つけるために、しばしば非現実的な時間とメモリを必要とする。
本稿では,任意の分岐とバウンダリに基づく決定木アルゴリズムに適用可能なスマート推測手法を用いてこの問題に対処する。
提案手法では, 連続的特徴量, 木の大きさ, 最適決定木に対する誤差の下位境界を推定できる。
論文 参考訳(メタデータ) (2021-12-01T19:39:28Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。