論文の概要: Adaptive Random Forests for Energy-Efficient Inference on
Microcontrollers
- arxiv url: http://arxiv.org/abs/2205.13838v1
- Date: Fri, 27 May 2022 09:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 02:11:03.264425
- Title: Adaptive Random Forests for Energy-Efficient Inference on
Microcontrollers
- Title(参考訳): マイクロコントローラのエネルギー効率を考慮した適応型ランダムフォレスト
- Authors: Francesco Daghero, Alessio Burrello, Chen Xie, Luca Benini, Andrea
Calimera, Enrico Macii, Massimo Poncino, Daniele Jahier Pagliari
- Abstract要約: ランダムフォレスト(RF)は低消費電力組み込みデバイスで機械学習モデルとして広く使われている。
本稿では,RFの早期停止機構を提案し,高い分類信頼度に達すると推論が終了する。
提案手法は,0.5%未満の精度で,エネルギーを38%から90%以上に削減する。
- 参考スコア(独自算出の注目度): 21.13601010812341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random Forests (RFs) are widely used Machine Learning models in low-power
embedded devices, due to their hardware friendly operation and high accuracy on
practically relevant tasks. The accuracy of a RF often increases with the
number of internal weak learners (decision trees), but at the cost of a
proportional increase in inference latency and energy consumption. Such costs
can be mitigated considering that, in most applications, inputs are not all
equally difficult to classify. Therefore, a large RF is often necessary only
for (few) hard inputs, and wasteful for easier ones. In this work, we propose
an early-stopping mechanism for RFs, which terminates the inference as soon as
a high-enough classification confidence is reached, reducing the number of weak
learners executed for easy inputs. The early-stopping confidence threshold can
be controlled at runtime, in order to favor either energy saving or accuracy.
We apply our method to three different embedded classification tasks, on a
single-core RISC-V microcontroller, achieving an energy reduction from 38% to
more than 90% with a drop of less than 0.5% in accuracy. We also show that our
approach outperforms previous adaptive ML methods for RFs.
- Abstract(参考訳): ランダムフォレスト(RF)は、ハードウェアフレンドリーな操作と実用的なタスクにおける高い精度のため、低消費電力組み込みデバイスで機械学習モデルとして広く使用されている。
rfの精度はしばしば内部弱い学習者(決定木)の数によって増加するが、推論遅延とエネルギー消費量の比例的に増加するコストがかかる。
ほとんどのアプリケーションでは、入力が等しく分類することが難しいとは限らないため、そのようなコストを軽減できる。
したがって、大きなRFはハードインプットにのみ必要であり、簡単な入力には無駄であることが多い。
本研究では,RFの早期停止機構を提案し,高い分類信頼度に達すると推論が終了し,簡単な入力のために実行される弱い学習者の数を削減した。
早期に停止する信頼閾値は、省エネか正確性のいずれかを優先するために実行時に制御できる。
本手法は, 単コアRISC-Vマイクロコントローラ上での3種類の組込み型分類タスクに適用し, エネルギーを38%から90%以上まで削減し, 精度は0.5%以下とした。
また,提案手法は従来の適応型ML法よりも優れていることを示す。
関連論文リスト
- Accelerating TinyML Inference on Microcontrollers through Approximate Kernels [3.566060656925169]
本研究では、近似計算とソフトウェアカーネル設計を組み合わせることで、マイクロコントローラ上での近似CNNモデルの推定を高速化する。
CIFAR-10データセットでトレーニングされたSTM32-Nucleoボードと2つの人気のあるCNNによる評価は、最先端の正確な推測と比較すると、平均21%のレイテンシ削減が可能であることを示している。
論文 参考訳(メタデータ) (2024-09-25T11:10:33Z) - In-Sensor Radio Frequency Computing for Energy-Efficient Intelligent
Radar [8.041399176135178]
本稿では,大規模RFNNを,その精度をほぼ保ちつつ,コンパクトなRFNNに変換することを提案する。
我々は、ロバストTT-RFNN(RTT-RFNN)をTT-RFNNに組み込むことにより、ロバストTT-RFNN(RTT-RFNN)を構築する。
MNIST と CIFAR-10 データセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-12-16T06:21:42Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural
Network Inference in Low-Voltage Regimes [52.51014498593644]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は依然として注目すべき問題である。
我々は、低電圧状態における精度とエネルギーのトレードオフに対処する新しいアドオンモジュールであるNeuralFuseを紹介する。
1%のビットエラー率で、NeuralFuseはメモリアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - Big-Little Adaptive Neural Networks on Low-Power Near-Subthreshold
Processors [0.0]
論文は、エッジAIアプリケーションにおいて、ほぼサブスレッショルドなプロセッサが得るエネルギーの節約について考察する。
アプリケーションの正確性を維持しながら、それらを改善するための戦略を提案する。
論文 参考訳(メタデータ) (2023-04-19T14:36:30Z) - Energy-Efficient Adaptive Machine Learning on IoT End-Nodes With
Class-Dependent Confidence [22.225875583595027]
少ない精度のドロップでエネルギー効率を得る効果的な方法は、ますます複雑なモデルの集合を順次実行することである。
現在の手法では、各モデルが生成する出力確率に1つのしきい値を用いる。
本手法は, シングルスレッド方式と比較して, エネルギー消費を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2022-04-07T13:22:52Z) - Arrhythmia Classifier Using Convolutional Neural Network with Adaptive
Loss-aware Multi-bit Networks Quantization [4.8538839251819486]
メモリ消費を23.36倍に削減する高圧縮率を実現する1次元適応型ロスアウェア量子化を提案する。
我々は、MIT-BIHデータセットで訓練された17種類のリズムクラスを分類するために、17層のエンドツーエンドニューラルネットワーク分類器を提案する。
本研究は,ハードウェアフレンドリーで,ウェアラブルデバイスに展開可能な1次元畳み込みニューラルネットワークを実現する。
論文 参考訳(メタデータ) (2022-02-27T14:26:41Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild [62.36144064259933]
ニューラルネットワークの逆トレーニングとLipschitz定数の制御を通じて、両問題に同時に対処する新しい方法であるRESTを提案する。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
これらのモデルをスマートフォン上のAndroidアプリケーションにデプロイすることにより、RESTによってモデルが最大17倍のエネルギー削減と9倍高速な推論を達成することができることを定量的に観察する。
論文 参考訳(メタデータ) (2020-01-29T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。