論文の概要: Vectorized Adaptive Histograms for Sparse Oblique Forests
- arxiv url: http://arxiv.org/abs/2603.00326v1
- Date: Fri, 27 Feb 2026 21:36:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.144982
- Title: Vectorized Adaptive Histograms for Sparse Oblique Forests
- Title(参考訳): 疎斜林の植生適応型ヒストグラム
- Authors: Ariel Lubonja, Jungsang Yoon, Haoyin Xu, Yue Wan, Yilin Xu, Richard Stotz, Mathieu Guillame-Bert, Joshua T. Vogelstein, Randal Burns,
- Abstract要約: ヒストグラムとソートを動的に切り替えて最適な分割を見つける方法を提案する。
既存の斜め林に比べて1.7~2.5倍、標準のランダム林に比べて1.5~2倍のスピードアップ訓練を行う。
- 参考スコア(独自算出の注目度): 9.061768656246203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification using sparse oblique random forests provides guarantees on uncertainty and confidence while controlling for specific error types. However, they use more data and more compute than other tree ensembles because they create deep trees and need to sort or histogram linear combinations of data at runtime. We provide a method for dynamically switching between histograms and sorting to find the best split. We further optimize histogram construction using vector intrinsics. Evaluating this on large datasets, our optimizations speedup training by 1.7-2.5x compared to existing oblique forests and 1.5-2x compared to standard random forests. We also provide a GPU and hybrid CPU-GPU implementation.
- Abstract(参考訳): 斜め斜めの森林を用いた分類は、特定のエラータイプを制御しながら不確実性と信頼性を保証する。
しかし、深い木を作り、実行時にデータの線形結合をソートまたはヒストグラムする必要があるため、他のツリーアンサンブルよりも多くのデータと計算を使用する。
ヒストグラムとソートを動的に切り替えて最適な分割を見つける方法を提案する。
さらに,ベクトル固有値を用いたヒストグラム構築を最適化する。
これを大規模データセットで評価することにより,既存の斜め林に比べて1.7~2.5倍,標準ランダム林に比べて1.5~2倍のスピードアップ訓練を行うことができる。
また、GPUとハイブリッドCPU-GPUの実装も提供しています。
関連論文リスト
- TreeGrad-Ranker: Feature Ranking via $O(L)$-Time Gradients for Decision Trees [73.0940890296463]
確率値は、決定木の局所的な予測値を説明する特徴のランク付けに使用される。
TreeGradは、共同目的の多重線型拡張の勾配を$O(L)$時間で計算する。
TreeGrad-Rankerは、機能ランキングを生成するために共同目標を最適化しながら、勾配を集約する。
TreeGrad-Shapは、積分パラメータを持つベータシェープ値を計算するための数値的に安定なアルゴリズムである。
論文 参考訳(メタデータ) (2026-02-12T06:17:12Z) - Jacobian Aligned Random Forests [0.0]
我々は、軸方向決定木に対する斜め森林の代替として、ヤコビ-アラインランダム林(JARF)を提示する。
JARFは、軸方向の森林を一貫して改善し、トレーニング時間を改善しつつ、基準線にマッチまたは超越することが多いことを示す。
実験結果と理論解析により, 森林の簡易性, 頑健性を保ちつつ, 森林の斜め森林の精度の多くを復元できることが示唆された。
論文 参考訳(メタデータ) (2025-12-09T07:08:04Z) - Experiments with Optimal Model Trees [1.3750624267664155]
我々は,世界規模で最適なモデル木が,非常に小さな木と競合する精度を達成できることを示した。
また、古典的最適かつ優雅に成長した決定木、ランダムな森林、およびサポートベクターマシンと比較した。
論文 参考訳(メタデータ) (2025-03-17T08:03:47Z) - Soft regression trees: a model variant and a decomposition training algorithm [0.24578723416255752]
そこで本研究では,各入力ベクトルに対して,単一の葉ノードに関連付けられた線形回帰として定義する,ソフト多変量回帰木(SRT)の新たな変種を提案する。
SRTは条件付き計算特性、すなわち各予測は少数のノードに依存する。
15のよく知られたデータセットの実験により、従来のソフトレグレッションツリーと比較して、我々のSRTと分解アルゴリズムは高い精度とロバスト性が得られることが示された。
論文 参考訳(メタデータ) (2025-01-10T13:06:36Z) - Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Improving Dual-Encoder Training through Dynamic Indexes for Negative
Mining [61.09807522366773]
本稿では,ソフトマックスを証明可能な境界で近似し,木を動的に維持するアルゴリズムを提案する。
我々は,2000万以上のターゲットを持つデータセットについて検討し,オラクル・ブルート力負の鉱業に関して,誤差を半分に削減した。
論文 参考訳(メタデータ) (2023-03-27T15:18:32Z) - Optimal Sparse Regression Trees [24.03491277969824]
本研究は,確率的最適スパース回帰木の構築に対する動的プログラミングとバウンドのアプローチを提案する。
ラベル集合上の1次元におけるk平均クラスタリングアルゴリズムの最適解に基づいて、新しい下界を利用する。
論文 参考訳(メタデータ) (2022-11-28T00:43:21Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。