論文の概要: DiNo and RanBu: Lightweight Predictions from Shallow Random Forests
- arxiv url: http://arxiv.org/abs/2510.23624v1
- Date: Thu, 23 Oct 2025 20:12:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.291668
- Title: DiNo and RanBu: Lightweight Predictions from Shallow Random Forests
- Title(参考訳): DiNoとRanBu:浅いランダム林の軽量化予測
- Authors: Tiago Mendonça dos Santos, Rafael Izbicki, Luís Gustavo Esteves,
- Abstract要約: DiNoとRanBuは、小さな深度制限木を効率的な距離重み付き予測子に変換する。
RanBuは、ハイノイズ設定で、完全奥行きのランダムな森の精度を一致または超過する。
どちらの手法も量子レグレッションに直接拡張し、精度を相当なスピードゲインで維持する。
- 参考スコア(独自算出の注目度): 2.2080796858692575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random Forest ensembles are a strong baseline for tabular prediction tasks, but their reliance on hundreds of deep trees often results in high inference latency and memory demands, limiting deployment in latency-sensitive or resource-constrained environments. We introduce DiNo (Distance with Nodes) and RanBu (Random Bushes), two shallow-forest methods that convert a small set of depth-limited trees into efficient, distance-weighted predictors. DiNo measures cophenetic distances via the most recent common ancestor of observation pairs, while RanBu applies kernel smoothing to Breiman's classical proximity measure. Both approaches operate entirely after forest training: no additional trees are grown, and tuning of the single bandwidth parameter $h$ requires only lightweight matrix-vector operations. Across three synthetic benchmarks and 25 public datasets, RanBu matches or exceeds the accuracy of full-depth random forests-particularly in high-noise settings-while reducing training plus inference time by up to 95\%. DiNo achieves the best bias-variance trade-off in low-noise regimes at a modest computational cost. Both methods extend directly to quantile regression, maintaining accuracy with substantial speed gains. The implementation is available as an open-source R/C++ package at https://github.com/tiagomendonca/dirf. We focus on structured tabular random samples (i.i.d.), leaving extensions to other modalities for future work.
- Abstract(参考訳): ランダムフォレストアンサンブルは、タブ形式の予測タスクの強力なベースラインであるが、数百の深い木に依存しているため、推論遅延とメモリ要求が高くなり、レイテンシに敏感な環境やリソース制約のある環境へのデプロイが制限される。
我々は,小深度制限木を効率よく,距離重み付き予測器に変換する2つの浅葉樹林法であるDiNo(Distance with Nodes)とRanBu(Random Bushes)を紹介する。
DiNo は直近の観測対の直近の共通祖先を通して対数距離を測り、RanBu はブリーマンの古典的近接測度に核平滑化を適用する。
どちらのアプローチもフォレストトレーニング後に完全に動作する。追加のツリーは成長せず、シングルバンド幅パラメータ$h$のチューニングは軽量な行列ベクトル演算のみを必要とする。
3つの総合ベンチマークと25の公開データセットにわたって、RanBuは、特にハイノイズ環境では、完全奥行きのランダムな森林の精度を、最大95%まで削減する。
DiNoは、低雑音状態における最良のバイアス分散トレードオフを、控えめな計算コストで達成する。
どちらの手法も量子レグレッションに直接拡張し、精度を相当なスピードゲインで維持する。
実装はオープンソースR/C++パッケージとしてhttps://github.com/tiagomendonca/dirfで公開されている。
構造化された表状ランダムサンプル(すなわちd.d.)に焦点を当て、将来の研究のために他のモダリティに拡張する。
関連論文リスト
- TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based Modeling [65.46347858249295]
TreePOは自己誘導型ロールアウトアルゴリズムで、シーケンス生成を木構造検索プロセスとして見る。
TreePOは基本的に、探索の多様性を保存または強化しながら、更新毎の計算負担を削減します。
論文 参考訳(メタデータ) (2025-08-24T16:52:37Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - Inference with Mondrian Random Forests [6.97762648094816]
我々は、モンドリアンのランダムな森林回帰推定器に対して、ベリー・エッセイン型中央極限定理とともに、正確なバイアスと分散特性を与える。
未知回帰関数に対する有効な統計的推測法を提案する。
効率的で実装可能なアルゴリズムは、バッチとオンラインの学習設定の両方に考案されている。
論文 参考訳(メタデータ) (2023-10-15T01:41:42Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Minimax Rates for High-Dimensional Random Tessellation Forests [0.0]
モンドリアン林は、任意の次元でミニマックスレートが得られた最初のランダム林である。
概略分割方向を持つ多種多様なランダム林は任意の次元における最小収束率も達成できることを示す。
論文 参考訳(メタデータ) (2021-09-22T06:47:38Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Random boosting and random^2 forests -- A random tree depth injection
approach [0.1749935196721634]
本稿では, 連続的および並列的木系アプローチに適した新しいランダムな樹木深度注入手法を提案し, 提案手法について検討する。
結果として得られたメソッドは、emphRandom Boost と emphRandom$2$ Forest と呼ばれる。
論文 参考訳(メタデータ) (2020-09-13T20:14:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。