論文の概要: InTreeger: An End-to-End Framework for Integer-Only Decision Tree Inference
- arxiv url: http://arxiv.org/abs/2505.15391v1
- Date: Wed, 21 May 2025 11:28:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.530761
- Title: InTreeger: An End-to-End Framework for Integer-Only Decision Tree Inference
- Title(参考訳): InTreeger: Integer-Only Decision Tree推論のためのエンドツーエンドフレームワーク
- Authors: Duncan Bart, Bruno Endres Forlin, Ana-Lucia Varbanescu, Marco Ottavi, Kuan-Hsun Chen,
- Abstract要約: InTreegerは、トレーニングデータセットを入力として、ツリーベースの機械学習モデルのアーキテクチャに依存しない整数のみのC実装を出力するエンドツーエンドフレームワークである。
このフレームワークは、機械学習の経験のない人でも、高度に最適化された整数のみの分類モデルを生成することができる。
- 参考スコア(独自算出の注目度): 1.2495506469683937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integer quantization has emerged as a critical technique to facilitate deployment on resource-constrained devices. Although they do reduce the complexity of the learning models, their inference performance is often prone to quantization-induced errors. To this end, we introduce InTreeger: an end-to-end framework that takes a training dataset as input, and outputs an architecture-agnostic integer-only C implementation of tree-based machine learning model, without loss of precision. This framework enables anyone, even those without prior experience in machine learning, to generate a highly optimized integer-only classification model that can run on any hardware simply by providing an input dataset and target variable. We evaluated our generated implementations across three different architectures (ARM, x86, and RISC-V), resulting in significant improvements in inference latency. In addition, we show the energy efficiency compared to typical decision tree implementations that rely on floating-point arithmetic. The results underscore the advantages of integer-only inference, making it particularly suitable for energy- and area-constrained devices such as embedded systems and edge computing platforms, while also enabling the execution of decision trees on existing ultra-low power devices.
- Abstract(参考訳): 整数量子化(Integer Quantization)は、リソース制約のあるデバイスへのデプロイを容易にする重要なテクニックとして登場した。
学習モデルの複雑さを減少させるが、その推論性能は量子化によるエラーを引き起こすことが多い。
この目的のために、トレーニングデータセットを入力として取り込んだエンドツーエンドフレームワークであるInTreegerを紹介し、精度を損なうことなく、ツリーベース機械学習モデルのアーキテクチャに依存しない整数のみのC実装を出力する。
このフレームワークは、機械学習の経験のない人でも、入力データセットとターゲット変数を提供することで、任意のハードウェア上で実行できる高度に最適化された整数のみの分類モデルを生成することができる。
生成した実装をARM, x86, RISC-Vの3つの異なるアーキテクチャ(ARM, x86, RISC-V)で評価した。
さらに,浮動小数点演算に依存する典型的な決定木実装と比較して,エネルギー効率を示す。
この結果は整数のみの推論の利点を強調し、組み込みシステムやエッジコンピューティングプラットフォームのようなエネルギーと領域に制約のあるデバイスに特に適し、既存の超低消費電力デバイス上で決定木の実行を可能にした。
関連論文リスト
- TreeLUT: An Efficient Alternative to Deep Neural Networks for Inference Acceleration Using Gradient Boosted Decision Trees [0.6906005491572401]
FPGA上での勾配向上決定木(GBDT)実装のためのオープンソースツールであるTreeLUTを提案する。
本稿では,複数のデータセットを分類し,超低域と遅延性の評価によく用いられるTreeLUTの有効性を示す。
以上の結果から,TreeLUTはハードウェア利用率,レイテンシ,スループットを,従来の作業に比べて競争精度で大幅に向上することがわかった。
論文 参考訳(メタデータ) (2025-01-02T19:38:07Z) - Register Your Forests: Decision Tree Ensemble Optimization by Explicit CPU Register Allocation [3.737361598712633]
本稿では,決定木アンサンブルに対するコード生成手法を提案し,単一の変換ステップ内で機械組立コードを生成する。
その結果,決定木アンサンブル推論の性能は大幅に向上できることが示唆された。
論文 参考訳(メタデータ) (2024-04-10T09:17:22Z) - Less is KEN: a Universal and Simple Non-Parametric Pruning Algorithm for Large Language Models [1.5807079236265718]
KENはカーネル密度推定(KDE)に基づく単純で普遍的で非構造化プルーニングアルゴリズムである
Kenは、最適化されたトランスフォーマーを構築することを目的としており、最も重要なパラメータを選択的に保存し、他のパラメータをトレーニング前の状態に復元する。
Kenは、元の未実行バージョンと同等かそれ以上のパフォーマンスを達成し、パラメータの最小25%の削減を実現している。
論文 参考訳(メタデータ) (2024-02-05T16:11:43Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Comparative Code Structure Analysis using Deep Learning for Performance
Prediction [18.226950022938954]
本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
論文 参考訳(メタデータ) (2021-02-12T16:59:12Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - HCM: Hardware-Aware Complexity Metric for Neural Network Architectures [6.556553154231475]
本稿では,ニューラルネットワークアーキテクチャのシステムデザイナを支援することを目的とした,ハードウェア対応の複雑性指標を提案する。
提案手法は,資源制限されたデバイス上でのニューラルネットワークモデルの設計代替案の評価にどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-04-19T16:42:51Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。