論文の概要: Register Your Forests: Decision Tree Ensemble Optimization by Explicit CPU Register Allocation
- arxiv url: http://arxiv.org/abs/2404.06846v1
- Date: Wed, 10 Apr 2024 09:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:00:17.547064
- Title: Register Your Forests: Decision Tree Ensemble Optimization by Explicit CPU Register Allocation
- Title(参考訳): 森林を登録する: 明示的なCPUレジスタ割り当てによる決定木アンサンブル最適化
- Authors: Daniel Biebert, Christian Hakert, Kuan-Hsun Chen, Jian-Jia Chen,
- Abstract要約: 本稿では,決定木アンサンブルに対するコード生成手法を提案し,単一の変換ステップ内で機械組立コードを生成する。
その結果,決定木アンサンブル推論の性能は大幅に向上できることが示唆された。
- 参考スコア(独自算出の注目度): 3.737361598712633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bringing high-level machine learning models to efficient and well-suited machine implementations often invokes a bunch of tools, e.g.~code generators, compilers, and optimizers. Along such tool chains, abstractions have to be applied. This leads to not optimally used CPU registers. This is a shortcoming, especially in resource constrained embedded setups. In this work, we present a code generation approach for decision tree ensembles, which produces machine assembly code within a single conversion step directly from the high-level model representation. Specifically, we develop various approaches to effectively allocate registers for the inference of decision tree ensembles. Extensive evaluations of the proposed method are conducted in comparison to the basic realization of C code from the high-level machine learning model and succeeding compilation. The results show that the performance of decision tree ensemble inference can be significantly improved (by up to $\approx1.6\times$), if the methods are applied carefully to the appropriate scenario.
- Abstract(参考訳): 高レベルの機械学習モデルを効率的で適切なマシン実装に持ち込むことで、コードジェネレータ、コンパイラ、オプティマイザなど、多くのツールが呼び出されることが多い。
このようなツールチェーンに沿って、抽象化を適用する必要があります。
これは最適に使用されていないCPUレジスタに繋がる。
これは、特にリソース制約のある組み込み設定では、欠点です。
本研究では,高レベルモデル表現から直接単一変換ステップ内で機械組立コードを生成する,決定木アンサンブルのためのコード生成手法を提案する。
具体的には,決定木アンサンブルの推測のためのレジスタを効果的に割り当てるための様々なアプローチを開発する。
提案手法の大規模評価は,高レベル機械学習モデルによるC言語の基本的な実現と,それに続くコンパイルに比較して行われる。
その結果,決定木アンサンブル推論の性能は,適切なシナリオに慎重に適用した場合に($\approx1.6\times$まで)大幅に向上することが示された。
関連論文リスト
- TREE: Tree Regularization for Efficient Execution [4.205565040528205]
本稿では,決定木の訓練中に不均一な確率分布を報知することにより,経路長を削減する手法を提案する。
具体的には,CARTアルゴリズムの不純物を規則化し,低不純物だけでなく,分割基準の評価にも高い非対称分布を求める。
論文 参考訳(メタデータ) (2024-06-18T12:01:06Z) - Should AI Optimize Your Code? A Comparative Study of Current Large Language Models Versus Classical Optimizing Compilers [0.0]
大規模言語モデル(LLM)は、コード最適化方法論に革命をもたらすAI駆動アプローチの可能性に関する興味深い疑問を提起する。
本稿では、GPT-4.0とCodeLlama-70Bの2つの最先端大言語モデルと従来の最適化コンパイラの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - bsnsing: A decision tree induction method based on recursive optimal
boolean rule composition [2.28438857884398]
本稿では,決定木帰納過程における分割規則選択を最適化するMIP(Mixed-integer Programming)の定式化を提案する。
商用の解法よりも高速に実例を解くことができる効率的な探索解法を開発した。
論文 参考訳(メタデータ) (2022-05-30T17:13:57Z) - Optimization of Decision Tree Evaluation Using SIMD Instructions [0.0]
人気のCatBoostライブラリの祖先であるMatrixNetを探索する。
本稿では,より効率的にモデルを評価するために,AVX命令セットが与える機会について検討する。
論文 参考訳(メタデータ) (2022-05-15T15:12:40Z) - Improved Learning Bounds for Branch-and-Cut [98.92725321081994]
分岐とカットは整数プログラムの解法として最も広く使われているアルゴリズムである。
ますます人気のあるアプローチは、機械学習を使ってパラメータをチューニングすることだ。
本稿では,本手法のサンプル保証について述べる。
論文 参考訳(メタデータ) (2021-11-18T04:07:29Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Simple is better: Making Decision Trees faster using random sampling [4.284674689172996]
近年,ビッグデータ上での堅牢な機械学習モデル構築において,勾配向上決定木が普及している。
理論的および実験的に、ランダムに分割点を均一に選択することは、精度と計算効率の点で、同じあるいはさらに優れた性能を提供することを示す。
論文 参考訳(メタデータ) (2021-08-19T17:00:21Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。