論文の概要: Optimization of Oblivious Decision Tree Ensembles Evaluation for CPU
- arxiv url: http://arxiv.org/abs/2211.00391v1
- Date: Tue, 1 Nov 2022 11:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:18:19.629560
- Title: Optimization of Oblivious Decision Tree Ensembles Evaluation for CPU
- Title(参考訳): CPU評価を組み込んだ未知の決定木の最適化
- Authors: Alexey Mironov, Ilnur Khuziev
- Abstract要約: CatBoostは人気のある機械学習ライブラリである。
本稿では,シングルコアCPU計算におけるCatBoostの性能向上の可能性を検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CatBoost is a popular machine learning library. CatBoost models are based on
oblivious decision trees, making training and evaluation rapid. CatBoost has
many applications, and some require low latency and high throughput evaluation.
This paper investigates the possibilities for improving CatBoost's performance
in single-core CPU computations. We explore the new features provided by the
AVX instruction sets to optimize evaluation. We increase performance by 20-40%
using AVX2 instructions without quality impact. We also introduce a new
trade-off between speed and quality. Using float16 for leaf values and AVX-512
instructions, we achieve 50-70% speed-up.
- Abstract(参考訳): CatBoostは人気のある機械学習ライブラリである。
CatBoostモデルは、未熟な決定木に基づいて、トレーニングと評価を迅速化する。
CatBoostには多くのアプリケーションがあり、いくつかは低レイテンシと高いスループット評価を必要とする。
本稿では,シングルコアCPU計算におけるCatBoostの性能向上の可能性を検討する。
評価を最適化するために,AVX命令セットが提供する新機能について検討する。
品質に影響を与えずにAVX2命令を用いて20~40%の性能向上を図る。
スピードと品質の新たなトレードオフも導入しています。
葉の値とAVX-512命令にfloat16を用い,50~70%の高速化を実現した。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - QLoRA: Efficient Finetuning of Quantized LLMs [66.58009990713134]
我々は,48GBのGPU上で65Bパラメータモデルを微調整するのに十分なメモリ使用量を削減する,効率的な微調整手法QLoRAを提案する。
QLoRAは凍結した4ビット量子化事前学習言語モデルを通して低ランクアダプタ(LoRA)に逆伝搬する
最高のモデルファミリであるGuanacoは、Vicunaベンチマークでリリースされたすべてのモデルより優れています。
論文 参考訳(メタデータ) (2023-05-23T17:50:33Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Optimization of Decision Tree Evaluation Using SIMD Instructions [0.0]
人気のCatBoostライブラリの祖先であるMatrixNetを探索する。
本稿では,より効率的にモデルを評価するために,AVX命令セットが与える機会について検討する。
論文 参考訳(メタデータ) (2022-05-15T15:12:40Z) - Efficient Visual Tracking via Hierarchical Cross-Attention Transformer [82.92565582642847]
本稿では,HCAT と呼ばれる階層型クロスアテンショントランスを用いた効率的な追跡手法を提案する。
当社のモデルは、GPUで約195fps、CPUで45fps、NVidia Jetson AGX XavierのエッジAIプラットフォームで55fpsで動作します。
論文 参考訳(メタデータ) (2022-03-25T09:45:27Z) - Quantum Boosting using Domain-Partitioning Hypotheses [0.9264464791978363]
ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
論文 参考訳(メタデータ) (2021-10-25T10:46:13Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - MP-Boost: Minipatch Boosting via Adaptive Feature and Observation
Sampling [0.0]
MP-BoostはAdaBoostを緩くベースとしたアルゴリズムで、インスタンスと機能の小さなサブセットを適応的に選択することで学習する。
様々な二項分類タスクにおいて,提案手法の解釈可能性,比較精度,計算時間について実験的に検証した。
論文 参考訳(メタデータ) (2020-11-14T04:26:13Z) - agtboost: Adaptive and Automatic Gradient Tree Boosting Computations [0.0]
agtboostは高速勾配木強化計算を実装している。
有用なモデル検証関数は、学習された分布に関するコルモゴロフ・スミルノフテストを実行する。
論文 参考訳(メタデータ) (2020-08-28T12:42:19Z) - Survival regression with accelerated failure time model in XGBoost [1.5469452301122177]
サバイバル回帰は、時間から時間までの変数と特徴変数の関係を推定するために用いられる。
XGBoostは、高速化された障害時間モデルを学習するための損失関数を実装している。
論文 参考訳(メタデータ) (2020-06-08T20:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。