論文の概要: A Flexible HLS Hoeffding Tree Implementation for Runtime Learning on
FPGA
- arxiv url: http://arxiv.org/abs/2112.01875v1
- Date: Fri, 3 Dec 2021 12:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 20:21:08.964055
- Title: A Flexible HLS Hoeffding Tree Implementation for Runtime Learning on
FPGA
- Title(参考訳): FPGAによる実行時学習のためのフレキシブルHLSHoeffding Treeの実装
- Authors: Lu\'is Miguel Sousa, Nuno Paulino, Jo\~ao Canas Ferreira, Jo\~ao Bispo
- Abstract要約: Hoeffding TreeはHoeffding境界を利用して、将来の再処理のためにデータサンプルを継続的に保存することなく、データのパターンを学習する。
これにより、組み込みデバイスへのデプロイに特に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees are often preferred when implementing Machine Learning in
embedded systems for their simplicity and scalability. Hoeffding Trees are a
type of Decision Trees that take advantage of the Hoeffding Bound to allow them
to learn patterns in data without having to continuously store the data samples
for future reprocessing. This makes them especially suitable for deployment on
embedded devices. In this work we highlight the features of an HLS
implementation of the Hoeffding Tree. The implementation parameters include the
feature size of the samples (D), the number of output classes (K), and the
maximum number of nodes to which the tree is allowed to grow (Nd). We target a
Xilinx MPSoC ZCU102, and evaluate: the design's resource requirements and clock
frequency for different numbers of classes and feature size, the execution time
on several synthetic datasets of varying sample sizes (N), number of output
classes and the execution time and accuracy for two datasets from UCI. For a
problem size of D3, K5, and N40000, a single decision tree operating at 103MHz
is capable of 8.3x faster inference than the 1.2GHz ARM Cortex-A53 core.
Compared to a reference implementation of the Hoeffding tree, we achieve
comparable classification accuracy for the UCI datasets.
- Abstract(参考訳): 決定木は、その単純さとスケーラビリティのために組み込みシステムで機械学習を実装する際にしばしば好まれる。
Hoeffding Treesは、Hoeffding境界を利用する決定木の一種で、将来の再処理のためにデータサンプルを継続的に保存することなく、データのパターンを学習することができる。
これにより、組み込みデバイスへのデプロイに特に適している。
この作業では、Hoeffding TreeのHLS実装の特徴を強調します。
実装パラメータには、サンプル(D)の機能サイズ、出力クラス(K)の数、木が成長することを許されるノードの最大数(Nd)が含まれる。
我々は, Xilinx MPSoC ZCU102 を対象とし,異なるクラス数と特徴量に対する設計のリソース要件とクロック周波数,異なるサンプルサイズ (N) の合成データセットの実行時間,出力クラス数,UCI の2つのデータセットの実行時間と精度を評価する。
D3、K5、N40000では、103MHzで動作する単一の決定木は1.2GHzのARM Cortex-A53コアよりも8.3倍高速な推論が可能となる。
Hoeffding ツリーの参照実装と比較すると,UCI データセットの分類精度は同等である。
関連論文リスト
- Terminating Differentiable Tree Experts [77.2443883991608]
本稿では,変圧器と表現生成器の組み合わせを用いて木操作を学習するニューラルシンボリック微分木機械を提案する。
まず、専門家の混在を導入することで、各ステップで使用される一連の異なるトランスフォーマーレイヤを取り除きます。
また,モデルが自動生成するステップ数を選択するための新しい終端アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-02T08:45:38Z) - Forecasting with Hyper-Trees [50.72190208487953]
Hyper-Treesは時系列モデルのパラメータを学習するために設計されている。
対象とする時系列モデルのパラメータを特徴に関連付けることで、Hyper-Treesはパラメータ非定常性の問題にも対処する。
この新しいアプローチでは、木はまず入力特徴から情報表現を生成し、浅いネットワークはターゲットモデルパラメータにマップする。
論文 参考訳(メタデータ) (2024-05-13T15:22:15Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Single MCMC Chain Parallelisation on Decision Trees [0.9137554315375919]
本稿では,平均的なラップトップやパソコン上でMCMC決定ツリーチェーンを並列化する手法を提案する。
実験の結果,シリアルと並列実装が統計的に同一である場合,実行時間を18倍に向上できることがわかった。
論文 参考訳(メタデータ) (2022-07-26T07:07:51Z) - Optimization of Decision Tree Evaluation Using SIMD Instructions [0.0]
人気のCatBoostライブラリの祖先であるMatrixNetを探索する。
本稿では,より効率的にモデルを評価するために,AVX命令セットが与える機会について検討する。
論文 参考訳(メタデータ) (2022-05-15T15:12:40Z) - DT2CAM: A Decision Tree to Content Addressable Memory Framework [0.46198289193451136]
本稿では,Decision Tree (DT)推論高速化のためのCAMコンパイラを提案する。
本稿では,コンパクトな実装を実現する新しい「適応精度」スキームを提案する。
我々の結果は、最先端のハードウェアアクセラレーターと比較して42.4%の省エネと17.8倍の省エネ効果が得られた。
論文 参考訳(メタデータ) (2022-04-12T23:16:46Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - PACSET (Packed Serialized Trees): Reducing Inference Latency for Tree
Ensemble Deployment [4.314299343332365]
モデルがまだメモリにロードされていない場合の推論遅延を最適化する,ツリーアンサンブルのシリアライズとデシリアライズを行う手法を提案する。
組込みシリアライズドツリー(PACSET)は、外部メモリアルゴリズムの原理を用いて、ツリーアンサンブルのレイアウトにおける参照ローカリティを符号化する。
その結果、各I/Oは有用なデータの割合が高くなり、対話型ワークロードの分類遅延が2~6倍削減される。
論文 参考訳(メタデータ) (2020-11-10T20:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。