論文の概要: Jump Like A Squirrel: Optimized Execution Step Order for Anytime Random Forest Inference
- arxiv url: http://arxiv.org/abs/2603.01588v1
- Date: Mon, 02 Mar 2026 08:15:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.75822
- Title: Jump Like A Squirrel: Optimized Execution Step Order for Anytime Random Forest Inference
- Title(参考訳): リスのようにジャンプする: 任意のランダムな森林推定のための最適化された実行ステップ
- Authors: Daniel Biebert, Christian Hakert, Kay Heider, Daniel Kuhse, Sebastian Buschjäger, Jian-Jia Chen,
- Abstract要約: 決定木と無作為林は、木内の単一ステップの粒度に関するアルゴリズムとして常に認識される。
本稿では,指数型ランタイムにおいて,最大平均精度のステップオーダーを求める最適順序を提案する。
我々の評価では、バックワード・リス・オーダーは、Optimal Orderと$sim99%$だけでなく、他のすべてのステップ・オーダーと同様に$sim94%$を実行している。
- 参考スコア(独自算出の注目度): 2.610730315907993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to their efficiency and small size, decision trees and random forests are popular machine learning models used for classification on resource-constrained systems. In such systems, the available execution time for inference in a random forest might not be sufficient for a complete model execution. Ideally, the already gained prediction confidence should be retained. An anytime algorithm is designed to be able to be aborted anytime, while giving a result with an increasing quality over time. Previous approaches have realized random forests as anytime algorithms on the granularity of trees, stopping after some but not all trees of a forest have been executed. However, due to the way decision trees subdivide the sample space in every step, an increase in prediction quality is achieved with every additional step in one tree. In this paper, we realize decision trees and random forest as anytime algorithms on the granularity of single steps in trees. This approach opens a design space to define the step order in a forest, which has the potential to optimize the mean accuracy. We propose the Optimal Order, which finds a step order with a maximal mean accuracy in exponential runtime and the polynomial runtime heuristics Forward Squirrel Order and Backward Squirrel Order, which greedily maximize the accuracy for each additional step taken down and up the trees, respectively. Our evaluation shows, that the Backward Squirrel Order performs $\sim94\%$ as well as the Optimal Order and $\sim99\%$ as well as all other step orders.
- Abstract(参考訳): その効率性と小ささのため、決定木とランダムフォレストはリソース制約システムの分類に使用される機械学習モデルとして人気がある。
このようなシステムでは、ランダムなフォレストにおける推論の実行時間は、完全なモデル実行には不十分かもしれない。
理想的には、既に得られた予測の信頼は維持されるべきである。
任意のアルゴリズムはいつでも中断できるように設計されており、その結果は時間とともに品質が向上する。
これまでのアプローチでは、木々の粒度に関するアルゴリズムとしてランダムな森林が認識されており、森林のすべての木が実行されたわけではない。
しかし, 決定木が各ステップでサンプル空間を分割する方法により, 1ステップごとに予測品質が向上する。
本稿では,木における単一ステップの粒度に関するアルゴリズムとして,決定木とランダムフォレストを常に実現している。
このアプローチは、平均精度を最適化する可能性を持つ森林におけるステップオーダーを定義するための設計空間を開放する。
本稿では,指数的実行時における最大平均精度のステップオーダーと多項式実行時ヒューリスティックス(フォワード・リス・オーダー)およびバック・リス・オーダー(バックワード・リス・オーダー)を提案する。
我々の評価では、バックワード・リス・オーダーは、最適オーダーと$\sim99\%$、その他のすべてのステップオーダーと同様に$\sim94\%$を実行している。
関連論文リスト
- TreeGrad-Ranker: Feature Ranking via $O(L)$-Time Gradients for Decision Trees [73.0940890296463]
確率値は、決定木の局所的な予測値を説明する特徴のランク付けに使用される。
TreeGradは、共同目的の多重線型拡張の勾配を$O(L)$時間で計算する。
TreeGrad-Rankerは、機能ランキングを生成するために共同目標を最適化しながら、勾配を集約する。
TreeGrad-Shapは、積分パラメータを持つベータシェープ値を計算するための数値的に安定なアルゴリズムである。
論文 参考訳(メタデータ) (2026-02-12T06:17:12Z) - TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based Modeling [65.46347858249295]
TreePOは自己誘導型ロールアウトアルゴリズムで、シーケンス生成を木構造検索プロセスとして見る。
TreePOは基本的に、探索の多様性を保存または強化しながら、更新毎の計算負担を削減します。
論文 参考訳(メタデータ) (2025-08-24T16:52:37Z) - Near Optimal Decision Trees in a SPLIT Second [16.99892407039875]
決定木最適化は、解釈可能な機械学習の基本である。
最近のアプローチでは、分岐と動的プログラミングとのバウンドを使って、グローバルな最適化が見つかる。
我々はSPLITと呼ばれるアルゴリズムのファミリーを導入し、この理想的なバランスを達成するために私たちをかなり前進させます。
論文 参考訳(メタデータ) (2025-02-21T22:57:17Z) - Can a Single Tree Outperform an Entire Forest? [5.448070998907116]
一般的な考え方は、単一の決定木は、テスト精度において古典的なランダムな森林を過小評価する。
本研究では,斜め回帰木の試験精度を大幅に向上させることで,このような考え方に挑戦する。
本手法は,木習熟を非制約最適化タスクとして再編成する。
論文 参考訳(メタデータ) (2024-11-26T00:18:18Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - How Smart Guessing Strategies Can Yield Massive Scalability Improvements
for Sparse Decision Tree Optimization [18.294573939199438]
現在のアルゴリズムは、いくつかの実世界のデータセットに対して最適な木またはほぼ最適な木を見つけるために、しばしば非現実的な時間とメモリを必要とする。
本稿では,任意の分岐とバウンダリに基づく決定木アルゴリズムに適用可能なスマート推測手法を用いてこの問題に対処する。
提案手法では, 連続的特徴量, 木の大きさ, 最適決定木に対する誤差の下位境界を推定できる。
論文 参考訳(メタデータ) (2021-12-01T19:39:28Z) - Random boosting and random^2 forests -- A random tree depth injection
approach [0.1749935196721634]
本稿では, 連続的および並列的木系アプローチに適した新しいランダムな樹木深度注入手法を提案し, 提案手法について検討する。
結果として得られたメソッドは、emphRandom Boost と emphRandom$2$ Forest と呼ばれる。
論文 参考訳(メタデータ) (2020-09-13T20:14:50Z) - Efficient Computation of Expectations under Spanning Tree Distributions [67.71280539312536]
本稿では,エッジファクター,非プロジェクティブ・スパンニングツリーモデルにおいて,一階期待と二階期待の重要なケースに対する統一アルゴリズムを提案する。
我々のアルゴリズムは勾配と期待の基本的な関係を利用しており、効率的なアルゴリズムを導出することができる。
論文 参考訳(メタデータ) (2020-08-29T14:58:26Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。