論文の概要: Towards Machine Learning and Inference for Resource-constrained MCUs
- arxiv url: http://arxiv.org/abs/2305.18954v1
- Date: Tue, 30 May 2023 11:39:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:41:07.858070
- Title: Towards Machine Learning and Inference for Resource-constrained MCUs
- Title(参考訳): 資源制約型mcuの機械学習と推論
- Authors: Yushan Huang, Hamed Haddadi
- Abstract要約: マイクロコントローラ(MCU)のための,バッテリフリー機械学習(ML)推論とモデルパーソナライズパイプラインを提案する。
一例として,海洋における魚の画像認識を行った。
その結果,MCU上でのバッテリフリーML推論の可能性が示唆された。
- 参考スコア(独自算出の注目度): 5.30485792198213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is moving towards edge devices. However, ML models with
high computational demands and energy consumption pose challenges for ML
inference in resource-constrained environments, such as the deep sea. To
address these challenges, we propose a battery-free ML inference and model
personalization pipeline for microcontroller units (MCUs). As an example, we
performed fish image recognition in the ocean. We evaluated and compared the
accuracy, runtime, power, and energy consumption of the model before and after
optimization. The results demonstrate that, our pipeline can achieve 97.78%
accuracy with 483.82 KB Flash, 70.32 KB RAM, 118 ms runtime, 4.83 mW power, and
0.57 mJ energy consumption on MCUs, reducing by 64.17%, 12.31%, 52.42%, 63.74%,
and 82.67%, compared to the baseline. The results indicate the feasibility of
battery-free ML inference on MCUs.
- Abstract(参考訳): 機械学習(ML)はエッジデバイスに向かっている。
しかし、高い計算要求とエネルギー消費を持つMLモデルは、深海のような資源制約のある環境でML推論に挑戦する。
これらの課題に対処するために、マイクロコントローラユニット(MCU)のための電池レスML推論とモデルパーソナライズパイプラインを提案する。
一例として,海洋における魚の画像認識を行った。
我々は,最適化前後のモデルの精度,実行時,電力,エネルギー消費量を評価し,比較した。
その結果,483.82kbフラッシュ,70.32kb ram,118msランタイム,4.83mw電力,0.57mjエネルギー消費で97.78%の精度を達成でき,ベースラインと比較して64.17%,12.31%,52.42%,63.74%,82.67%削減できた。
その結果,MCU上でのバッテリフリーML推論の可能性が示唆された。
関連論文リスト
- SDPose: Tokenized Pose Estimation via Circulation-Guide Self-Distillation [53.675725490807615]
SDPoseは小型変圧器モデルの性能向上のための新しい自己蒸留法である。
SDPose-Tは4.4Mパラメータと1.8 GFLOPを持つ69.7%のmAPを取得し、SDPose-S-V2はMSCOCO検証データセット上で73.5%のmAPを取得する。
論文 参考訳(メタデータ) (2024-04-04T15:23:14Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Tiny-HR: Towards an interpretable machine learning pipeline for heart
rate estimation on edge devices [6.59529078336196]
本稿では,低消費電力エッジデバイスで取得した圧力センサデータから心拍数を抽出する機械学習(ML)パイプラインの概念実証を行う。
このパイプラインは、アップサンプラーニューラルネットワーク、信号品質分類器、効率的かつ正確な心拍数推定に最適化された1D畳み込みニューラルネットワークで構成されている。
その結果,提案したMLパイプラインとハイブリッドパイプラインは,従来のアルゴリズムに比べて82%と28%のエネルギーと時間を削減できることがわかった。
論文 参考訳(メタデータ) (2022-08-16T22:38:10Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Trimming Feature Extraction and Inference for MCU-based Edge NILM: a
Systematic Approach [14.491636333680297]
非侵入負荷モニタリング(NILM)は、複数の負荷のグローバルな電力消費を、単一のスマート電気メーターから、アプライアンスレベルの詳細に分解することを可能にする。
State-of-the-Artアプローチは機械学習手法に基づいており、電流と電圧センサーからの時間領域と周波数領域の機能の融合を利用する。
低レイテンシNILMを低コストでリソース制約のあるMCUベースのメーターで実行することは、現在オープンな課題である。
本稿では,特徴空間の最適化と,ステート・オブ・ザ・ステートの実行に必要な計算・記憶コストの削減について述べる。
論文 参考訳(メタデータ) (2021-05-21T12:08:16Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Robustifying the Deployment of tinyML Models for Autonomous
mini-vehicles [61.27933385742613]
本稿では,ループ内環境を含む自動運転ミニ車両を対象とした閉ループ学習フローを提案する。
我々は、小型CNNのファミリーを利用してミニ車両を制御し、コンピュータビジョンアルゴリズム、すなわち専門家を模倣してターゲット環境で学習する。
CNNのファミリを実行する場合、我々のソリューションはSTM32L4とk64f(Cortex-M4)の他の実装よりも優れており、レイテンシを13倍以上削減し、エネルギー消費を92%削減する。
論文 参考訳(メタデータ) (2020-07-01T07:54:26Z) - Q-EEGNet: an Energy-Efficient 8-bit Quantized Parallel EEGNet
Implementation for Edge Motor-Imagery Brain--Machine Interfaces [16.381467082472515]
運動画像脳-機械インタフェース(MI-BMI)は、人間の脳と機械間の直接的かつアクセス可能なコミュニケーションをプロミットする。
脳波信号を分類するためのディープラーニングモデルが登場した。
これらのモデルは、メモリと計算要求のため、エッジデバイスの限界を超えることが多い。
論文 参考訳(メタデータ) (2020-04-24T12:29:03Z) - An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing [13.266626571886354]
本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
論文 参考訳(メタデータ) (2020-03-31T19:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。