論文の概要: An Experimental Study of Split-Learning TinyML on Ultra-Low-Power Edge/IoT Nodes
- arxiv url: http://arxiv.org/abs/2507.16594v1
- Date: Tue, 22 Jul 2025 13:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.141226
- Title: An Experimental Study of Split-Learning TinyML on Ultra-Low-Power Edge/IoT Nodes
- Title(参考訳): 超低消費電力エッジ/IoTノードにおける分割学習TinyMLの実験的検討
- Authors: Zied Jenhani, Mounir Bensalem, Jasenka Dizdarević, Admela Jukan,
- Abstract要約: スプリット学習(SL)は、センサ上の推論プロセスの一部を実行し、残りの部分を同伴装置にオフロードする。
本稿では,Espressif ESP32-S3基板上に構築されたTinyML+SLテストベッドについて述べる。
我々は、8ビット整数に量子化され、分割され、オーバー・ザ・エアの更新によってノードに配信されるMobileNetV2画像認識モデルの性能をベンチマークする。
- 参考スコア(独自算出の注目度): 2.624902795082451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Running deep learning inference directly on ultra-low-power edge/IoT nodes has been limited by the tight memory and compute budgets of microcontrollers. Split learning (SL) addresses this limitation in which it executes part of the inference process on the sensor and off-loads the remainder to a companion device. In the context of constrained devices and the related impact of low-power, over-the-air transport protocols, the performance of split learning remains largely unexplored. TO the best of our knowledge, this paper presents the first end-to-end TinyML + SL testbed built on Espressif ESP32-S3 boards, designed to benchmark the over-the-air performance of split learning TinyML in edge/IoT environments. We benchmark the performance of a MobileNetV2 image recognition model, which is quantized to 8-bit integers, partitioned, and delivered to the nodes via over-the-air updates. The intermediate activations are exchanged through different wireless communication methods: ESP-NOW, BLE, and traditional UDP/IP and TCP/IP, enabling a head-to-head comparison on identical hardware. Measurements show that splitting the model after block_16_project_BN layer generates a 5.66 kB tensor that traverses the link in 3.2 ms, when UDP is used, achieving a steady-state round-trip latency of 5.8 s. ESP-NOW presents the most favorable RTT performance 3.7 s; BLE extends battery life further but increases latency beyond 10s.
- Abstract(参考訳): 超低消費電力エッジ/IoTノード上でのディープラーニング推論の実行は、マイクロコントローラの厳格なメモリと計算予算によって制限されている。
スプリットラーニング(SL)は、センサ上の推論プロセスの一部を実行し、残りの部分を補助装置にオフロードするこの制限に対処する。
制約されたデバイスと、低電力でオーバー・ザ・エアのトランスポートプロトコルの影響の文脈では、分割学習の性能はほとんど探索されていない。
我々の知る限りでは、Espressif ESP32-S3ボード上に構築された最初のエンドツーエンドのTinyML + SLテストベッドは、エッジ/IoT環境での分割学習TinyMLの空気オーバーパフォーマンスをベンチマークするために設計されたものだ。
我々は、8ビット整数に量子化され、分割され、オーバー・ザ・エアの更新によってノードに配信されるMobileNetV2画像認識モデルの性能をベンチマークする。
ESP-NOW, BLE, 従来のUDP/IP, TCP/IPの3種類の無線通信方式により, 同一のハードウェア上での直接比較が可能となる。
測定結果から、ブロック_16_project_BN層の後、モデルを分割すると、5.66kBのテンソルが生成され、UDPを使用するとリンクを3.2msで横切る。
ESP-NOWは最も好ましいRTT性能3.7sを示し、BLEはバッテリー寿命をさらに延長するが、レイテンシは10秒を超えている。
関連論文リスト
- How Learnable Grids Recover Fine Detail in Low Dimensions: A Neural Tangent Kernel Analysis of Multigrid Parametric Encodings [106.3726679697804]
フーリエ特徴符号化(FFE)とマルチグリッドパラメトリック符号化(MPE)の2つの手法を比較した。
MPEは低次元マッピングの標準と見なされるが、MPEはそれらを上回り、高解像度で詳細な表現を学習することが多い。
我々は,MPEが学習可能な埋め込みではなく,グリッド構造を通じてネットワークの性能を向上させることを証明した。
論文 参考訳(メタデータ) (2025-04-18T02:18:08Z) - TPI-LLM: Serving 70B-scale LLMs Efficiently on Low-resource Edge Devices [36.714057078457195]
本稿では,70Bスケールモデルに対する計算およびメモリ効率の高いテンソル並列推論システムであるTPI-LLMを提案する。
TPI-LLMは、ユーザのデバイスに機密データをローカルに保持し、スライディングウィンドウメモリスケジューラを導入する。
TPI-LLMは、Accelerateと比較して80%以上、タイム・ツー・ファースト・トークンのレイテンシが低いことを示した。
論文 参考訳(メタデータ) (2024-10-01T09:18:56Z) - Fostc3net:A Lightweight YOLOv5 Based On the Network Structure Optimization [11.969138981034247]
本稿では,モバイル機器向けにカスタマイズされた軽量YOLOv5技術を提案する。
提案モデルでは,検出精度が1%向上し,FLOPが13%減少し,既存のYOLOv5に比べてモデルパラメータが26%減少した。
論文 参考訳(メタデータ) (2024-03-20T16:07:04Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Federated Split Learning with Only Positive Labels for
resource-constrained IoT environment [4.055662817794178]
分散コラボレーティブ機械学習(DCML)は、ディープラーニングモデルをトレーニングするためのIoT(Internet of Things)ドメインにおいて、有望な方法である。
分割学習 (SFL) は, デバイスが限られた計算能力を持つ場合に, 効率的な学習とテストに最も適している。
SFPLは、リソース制約のIoTデバイスが正のラベル付きデータしか持たない場合、SFLよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-25T05:33:06Z) - DIVISION: Memory Efficient Training via Dual Activation Precision [60.153754740511864]
最先端の研究は、量子化ビット幅の探索とトレーニングを組み合わせることで、手順を複雑にし、透明性を損なう。
そこで本研究では,DNNトレーニングを簡易かつ効果的に圧縮する手法を提案する。
実験結果によると、DIVISIONは10倍以上のアクティベーションマップの圧縮や、モデルの精度を損なうことなく、競争訓練のスループットなど、最先端の手法よりも総合的な性能を示している。
論文 参考訳(メタデータ) (2022-08-05T03:15:28Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。