論文の概要: MicroT: Low-Energy and Adaptive Models for MCUs
- arxiv url: http://arxiv.org/abs/2403.08040v2
- Date: Tue, 9 Jul 2024 09:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 23:41:10.337647
- Title: MicroT: Low-Energy and Adaptive Models for MCUs
- Title(参考訳): MicroT:MCUの低エネルギー・適応モデル
- Authors: Yushan Huang, Ranya Aloufi, Xavier Cadet, Yuchen Zhao, Payam Barnaghi, Hamed Haddadi,
- Abstract要約: MicroTはリソース制約型MCUのための低エネルギーマルチタスク適応モデルフレームワークである。
我々はMicroTを2つのモデル、3つのデータセット、2つのMCUボードで評価した。
- 参考スコア(独自算出の注目度): 7.540045123542394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose MicroT, a low-energy, multi-task adaptive model framework for resource-constrained MCUs. We divide the original model into a feature extractor and a classifier. The feature extractor is obtained through self-supervised knowledge distillation and further optimized into part and full models through model splitting and joint training. These models are then deployed on MCUs, with classifiers added and trained on local tasks, ultimately performing stage-decision for joint inference. In this process, the part model initially processes the sample, and if the confidence score falls below the set threshold, the full model will resume and continue the inference. We evaluate MicroT on two models, three datasets, and two MCU boards. Our experimental evaluation shows that MicroT effectively improves model performance and reduces energy consumption when dealing with multiple local tasks. Compared to the unoptimized feature extractor, MicroT can improve accuracy by up to 9.87%. On MCUs, compared to the standard full model inference, MicroT can save up to about 29.13% in energy consumption. MicroT also allows users to adaptively adjust the stage-decision ratio as needed, better balancing model performance and energy consumption. Under the standard stage-decision ratio configuration, MicroT can increase accuracy by 5.91% and save about 14.47% of energy consumption.
- Abstract(参考訳): 資源制約型MCUのための低エネルギーマルチタスク適応モデルフレームワークであるMicroTを提案する。
元のモデルを特徴抽出器と分類器に分割する。
この特徴抽出器は, 自己指導型知識蒸留により得られ, さらに, モデル分割とジョイントトレーニングにより, 部分モデルと完全モデルに最適化される。
これらのモデルは MCU 上に展開され、局所的なタスクに分類器を追加して訓練し、最終的には共同推論の段階決定を行う。
このプロセスでは、パートモデルはまずサンプルを処理し、信頼スコアが設定された閾値を下回ると、完全なモデルが再開され、推論が継続される。
我々はMicroTを2つのモデル、3つのデータセット、2つのMCUボードで評価した。
実験により、MicroTはモデル性能を効果的に向上し、複数のローカルタスクを扱う際のエネルギー消費量を削減できることが示された。
最適化されていない特徴抽出器と比較して、MicroTは最大9.87%精度を向上させることができる。
MCUでは、標準のフルモデル推論と比較して、MicroTはエネルギー消費の29.13%を節約できる。
MicroTでは、必要に応じてステージ決定比率を適応的に調整し、モデルパフォーマンスとエネルギー消費のバランスを改善することもできる。
標準段差比構成では、MicroTは精度を5.91%向上させ、エネルギー消費量の約14.47%を節約できる。
関連論文リスト
- Accelerating TinyML Inference on Microcontrollers through Approximate Kernels [3.566060656925169]
本研究では、近似計算とソフトウェアカーネル設計を組み合わせることで、マイクロコントローラ上での近似CNNモデルの推定を高速化する。
CIFAR-10データセットでトレーニングされたSTM32-Nucleoボードと2つの人気のあるCNNによる評価は、最先端の正確な推測と比較すると、平均21%のレイテンシ削減が可能であることを示している。
論文 参考訳(メタデータ) (2024-09-25T11:10:33Z) - Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts [60.1586169973792]
M$3$ViTは、Mix-of-experts (MoE)を導入した最新のマルチタスクViTモデルである。
MoEは精度の向上と80%以上の削減計算を実現しているが、FPGAに効率的なデプロイを行う上での課題は残されている。
Edge-MoEと呼ばれる私たちの研究は、アーキテクチャの革新の集合を伴って、マルチタスクのViTのための最初のエンドツーエンドFPGAアクセラレータを導入するという課題を解決します。
論文 参考訳(メタデータ) (2023-05-30T02:24:03Z) - Deep Reinforcement Learning Microgrid Optimization Strategy Considering
Priority Flexible Demand Side [6.129841305145217]
マイクログリッドは主に、DERの小規模なボラティリティ、不確実性、断続性、需要側不確実性といった問題に直面している。
従来のマイクログリッドは単一形態であり、複雑な需要側とマイクログリッド間の柔軟なエネルギー供給に対応できない。
本稿では,TCLとESSの各ユニットコンポーネントの応答優先度を,マイクログリッドの全体環境操作に基づいて検討する。
論文 参考訳(メタデータ) (2022-11-11T01:43:10Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - Scheduling Algorithms for Federated Learning with Minimal Energy
Consumption [0.0]
Federated Learning (FL)は、異種モバイルまたはエッジデバイス上で機械学習モデルを協調的にトレーニングする機会を開いた。
増大する懸念は、その経済と環境コストに関連している。
本稿では,未探索のMultiple-Choice Minimum-Cost Maximal Knapsack Packing Problemに基づく擬似多項式最適解を提案する。
論文 参考訳(メタデータ) (2022-09-13T09:54:05Z) - tinyMAN: Lightweight Energy Manager using Reinforcement Learning for
Energy Harvesting Wearable IoT Devices [0.0]
環境源からのエネルギー収穫は、低エネルギーのウェアラブルデバイスを動かすための有望な解決策である。
本稿では,リソース制約のあるウェアラブルIoTデバイスを対象とした,強化学習に基づくエネルギー管理フレームワークであるMintMANを提案する。
littleMANは2.36ms未満と27.75mu$Jを達成し、従来のアプローチに比べて最大45%高いユーティリティを維持している。
論文 参考訳(メタデータ) (2022-02-18T16:58:40Z) - Demand Responsive Dynamic Pricing Framework for Prosumer Dominated
Microgrids using Multiagent Reinforcement Learning [59.28219519916883]
本稿では,実時間価格(RTP)DR技術を実装したマルチエージェント強化学習に基づく意思決定環境を提案する。
提案手法は,従来のDR法に共通するいくつかの欠点に対処し,グリッド演算子とプロシューマーに大きな経済的利益をもたらす。
論文 参考訳(メタデータ) (2020-09-23T01:44:57Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。