論文の概要: Very fast Bayesian Additive Regression Trees on GPU
- arxiv url: http://arxiv.org/abs/2410.23244v1
- Date: Wed, 30 Oct 2024 17:29:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:45.553364
- Title: Very fast Bayesian Additive Regression Trees on GPU
- Title(参考訳): GPU上の超高速ベイズ付加回帰木
- Authors: Giacomo Petrillo,
- Abstract要約: 単一のCPUコアと比較して最大200倍高速なGPU対応のBARTを実装し、XGBoostで実行時にBARTと競合する。
この実装はPythonパッケージのbartzで利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bayesian Additive Regression Trees (BART) is a nonparametric Bayesian regression technique based on an ensemble of decision trees. It is part of the toolbox of many statisticians. The overall statistical quality of the regression is typically higher than other generic alternatives, and it requires less manual tuning, making it a good default choice. However, it is a niche method compared to its natural competitor XGBoost, due to the longer running time, making sample sizes above 10,000-100,000 a nuisance. I present a GPU-enabled implementation of BART, faster by up to 200x relative to a single CPU core, making BART competitive in running time with XGBoost. This implementation is available in the Python package bartz.
- Abstract(参考訳): Bayesian Additive Regression Trees (BART) は決定木の集合に基づく非パラメトリックベイズ回帰手法である。
多くの統計学者の道具箱の一部である。
回帰の全体的な統計的品質は、通常他の一般的な選択肢よりも高く、手動チューニングを少なくし、良いデフォルト選択となる。
しかし、これは天然の競合であるXGBoostと比較してニッチな方法であり、実行時間が長く、サンプルサイズが1万~10万以上になる。
単一のCPUコアと比較して最大200倍高速なGPU対応のBARTを実装し、XGBoostで実行時にBARTと競合する。
この実装はPythonパッケージのbartzで利用できる。
関連論文リスト
- On the Gaussian process limit of Bayesian Additive Regression Trees [0.0]
ベイズ付加回帰木(Bayesian Additive Regression Trees, BART)は、ベイズ回帰法の一種。
無限木の極限において、それはガウス過程(GP)回帰と同値となる。
本研究は,BARTとGPレグレッションの理解と開発を行う新しい方法を開く。
論文 参考訳(メタデータ) (2024-10-26T23:18:33Z) - SoftTreeMax: Exponential Variance Reduction in Policy Gradient via Tree
Search [68.66904039405871]
我々は,計画を考慮したソフトマックスの一般化であるSoftTreeMaxを紹介する。
この分散を緩和する上で,木の拡大政策が果たす役割を初めて示す。
我々の分化可能なツリーベースのポリシーは、従来の単一サンプルベースの勾配ではなく、各環境における木の葉のすべての勾配を利用する。
論文 参考訳(メタデータ) (2023-01-30T19:03:14Z) - pGMM Kernel Regression and Comparisons with Boosted Trees [21.607059258448594]
本研究では,pGMMカーネルの(リッジ)回帰の文脈における利点を実証する。
おそらく驚くことに、チューニングパラメータ(pGMMカーネルのパワーパラメータの$p=1$)がなくても、pGMMカーネルはすでによく機能している。
おそらく驚くべきことに、最高のパフォーマンス(回帰損失$L$)は、しばしば$pgggg 2$で、場合によっては$pgggg 2$で達成される。
論文 参考訳(メタデータ) (2022-07-18T15:06:30Z) - Data-Efficient Instance Segmentation with a Single GPU [88.31338435907304]
我々は2021年のVIPriors Instance Challengeで使用したデータ効率のセグメンテーション手法を紹介した。
私たちのソリューションは、強力なツールボックスであるmmdetectionをベースにした、Swin Transformerの修正版です。
本手法は,全競技者の2位である0.592のAP@0.50:0.95(medium)を達成した。
論文 参考訳(メタデータ) (2021-10-01T07:36:20Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Bayesian Additive Regression Trees with Model Trees [0.0]
モデルツリーBART(MOTR-BART)と呼ばれるBARTの拡張を導入する。
MOTR-BARTは、分数定数ではなく、ノードレベルでの分数線形関数を考える。
提案手法では, 局所的な線形性がより効率的に取得され, BARTと同等以上の性能を達成するために, 木を少なくする。
論文 参考訳(メタデータ) (2020-06-12T22:19:58Z) - Survival regression with accelerated failure time model in XGBoost [1.5469452301122177]
サバイバル回帰は、時間から時間までの変数と特徴変数の関係を推定するために用いられる。
XGBoostは、高速化された障害時間モデルを学習するための損失関数を実装している。
論文 参考訳(メタデータ) (2020-06-08T20:34:20Z) - Near-linear Time Gaussian Process Optimization with Adaptive Batching
and Resparsification [119.41129787351092]
BBKBは非回帰GP最適化アルゴリズムで、ほぼ直線的に実行し、バッチで候補を選択する。
また,同じバウンダリを用いて,スパルスGP近似の更新コストを適応的に遅延させることで,ステップ毎の償却コストをほぼ一定に抑えることができることを示した。
論文 参考訳(メタデータ) (2020-02-23T17:43:29Z) - Stochastic tree ensembles for regularized nonlinear regression [0.913755431537592]
本稿では,非線形回帰のための新しいツリーアンサンブル法を開発し,これをXBARTと呼ぶ。
ベイズモデルからの正規化と探索戦略と計算効率のよい手法を組み合わせることで、新しい手法は最先端の性能を達成できる。
論文 参考訳(メタデータ) (2020-02-09T14:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。