論文の概要: Optimizing TinyML: The Impact of Reduced Data Acquisition Rates for Time Series Classification on Microcontrollers
- arxiv url: http://arxiv.org/abs/2409.10942v1
- Date: Tue, 17 Sep 2024 07:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 17:38:43.628927
- Title: Optimizing TinyML: The Impact of Reduced Data Acquisition Rates for Time Series Classification on Microcontrollers
- Title(参考訳): TinyMLの最適化: 時系列分類におけるデータ取得率の低減がマイクロコントローラに与える影響
- Authors: Riya Samanta, Bidyut Saha, Soumya K. Ghosh, Ram Babu Roy,
- Abstract要約: 本稿では,時系列分類におけるデータ取得率の低減がTinyMLモデルに与える影響について検討する。
データサンプリング頻度を下げることで、RAM使用量、エネルギー消費、レイテンシ、MAC操作を約4倍に削減することを目指している。
- 参考スコア(独自算出の注目度): 6.9604565273682955
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tiny Machine Learning (TinyML) enables efficient, lowcost, and privacy preserving machine learning inference directly on microcontroller units (MCUs) connected to sensors. Optimizing models for these constrained environments is crucial. This paper investigates how reducing data acquisition rates affects TinyML models for time series classification, focusing on resource-constrained, battery operated IoT devices. By lowering data sampling frequency, we aim to reduce computational demands RAM usage, energy consumption, latency, and MAC operations by approximately fourfold while maintaining similar classification accuracies. Our experiments with six benchmark datasets (UCIHAR, WISDM, PAMAP2, MHEALTH, MITBIH, and PTB) showed that reducing data acquisition rates significantly cut energy consumption and computational load, with minimal accuracy loss. For example, a 75\% reduction in acquisition rate for MITBIH and PTB datasets led to a 60\% decrease in RAM usage, 75\% reduction in MAC operations, 74\% decrease in latency, and 70\% reduction in energy consumption, without accuracy loss. These results offer valuable insights for deploying efficient TinyML models in constrained environments.
- Abstract(参考訳): TinyML(Tiny Machine Learning)は、センサに接続されたマイクロコントローラユニット(MCU)に直接機械学習の推論を効率よく、低コストで、プライバシを保存することができる。
これらの制約された環境に対するモデル最適化が不可欠です。
本稿では,データ取得率の低減が時系列分類におけるTinyMLモデルに与える影響について考察する。
データサンプリング頻度を下げることで、同様の分類精度を維持しつつ、RAM使用量、エネルギー消費量、レイテンシ、MAC操作を約4倍削減することを目指している。
ベンチマークデータセット(UCIHAR, WISDM, PAMAP2, MHEALTH, MITBIH, PTB)を用いて行った実験では,データ取得率の低減がエネルギー消費と計算負荷を大幅に削減し, 精度の低下を最小に抑えた。
例えば、MITBIHとTBデータセットの取得率75\%の削減は、RAM使用量の60\%の削減、MAC操作75\%の削減、レイテンシ74\%の削減、エネルギー消費70%の削減を、精度の低下なしに達成した。
これらの結果は、制約のある環境で効率的なTinyMLモデルをデプロイするための貴重な洞察を提供する。
関連論文リスト
- Enhancing Field-Oriented Control of Electric Drives with Tiny Neural Network Optimized for Micro-controllers [0.8328638943795448]
本稿では、永久磁石同期モータ(PMSM)のフィールド指向制御(FOC)に統合された小型フィードフォワードニューラルネットワークTinyFCを紹介する。
マイクロコントローラの計算およびメモリ制約に適合しながら、FOC性能を向上させるために、軽量な1400のパラメータであるTinyFCが開発された。
論文 参考訳(メタデータ) (2025-02-01T19:16:51Z) - Optimising TinyML with Quantization and Distillation of Transformer and Mamba Models for Indoor Localisation on Edge Devices [7.229732269884237]
本稿では,資源制約エッジデバイスのための小型かつ効率的な機械学習モデル(TinyML)を提案する。
この研究は、量子化と知識蒸留を含むモデル圧縮技術に焦点を当て、モデルサイズを大幅に削減する。
これらのTinyMLモデルの医療への応用は、患者のモニタリングに革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-12-12T13:59:21Z) - Enhancing Lightweight Neural Networks for Small Object Detection in IoT
Applications [1.6932009464531739]
そこで本研究では,既存の物体検出装置上で使用可能な適応型タイリング手法を提案する。
実験の結果,提案手法はF1スコアを最大225%向上し,平均オブジェクト数誤差を最大76%削減できることがわかった。
論文 参考訳(メタデータ) (2023-11-13T08:58:34Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural Network Inference in Low-Voltage Regimes [50.00272243518593]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は問題の多いままである。
我々は低電圧状態におけるエネルギー精度のトレードオフを処理する新しいアドオンモジュールであるNeuralFuseを開発した。
1%のビットエラー率で、NeuralFuseはアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - BottleFit: Learning Compressed Representations in Deep Neural Networks
for Effective and Efficient Split Computing [48.11023234245863]
圧縮速度が強い場合でも高い精度を達成するための新しいトレーニング戦略を含む,BottleFitと呼ばれる新しいフレームワークを提案する。
BottleFitは77.1%のデータ圧縮を実現し、ImageNetデータセットでは最大で0.6%の精度でロスする。
本稿では,BottleFitが消費電力とレイテンシを最大で49%,(w.r.t.)ローカルコンピューティングでは89%,エッジオフロードでは37%,W.r.t.エッジオフロードでは55%削減することを示した。
論文 参考訳(メタデータ) (2022-01-07T22:08:07Z) - AnalogNets: ML-HW Co-Design of Noise-robust TinyML Models and Always-On
Analog Compute-in-Memory Accelerator [50.31646817567764]
本稿では,キーワードスポッティング (KWS) と視覚覚醒語 (VWW) を常用するTinyMLモデルについて述べる。
アナログ非イデオロギーに面した精度を維持するため、包括的学習手法を詳述する。
また、プログラム可能な最小領域位相変化メモリ(PCM)アナログCiMアクセラレータであるAON-CiMについて述べる。
論文 参考訳(メタデータ) (2021-11-10T10:24:46Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。