論文の概要: Real-Time Performance Benchmarking of TinyML Models in Embedded Systems (PICO: Performance of Inference, CPU, and Operations)
- arxiv url: http://arxiv.org/abs/2509.04721v1
- Date: Fri, 05 Sep 2025 00:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.433617
- Title: Real-Time Performance Benchmarking of TinyML Models in Embedded Systems (PICO: Performance of Inference, CPU, and Operations)
- Title(参考訳): 組み込みシステムにおけるTinyMLモデルのリアルタイム性能ベンチマーク(PICO:推論・CPU・運用の性能)
- Authors: Abhishek Dey, Saurabh Srivastava, Gaurav Singh, Robert G. Pettit,
- Abstract要約: PICO-TINYML-BENCHMARKは、リソース制約のある組み込みシステム上でのTinyMLモデルのリアルタイムパフォーマンスをベンチマークするためのフレームワークである。
BeagleBone AI64とRaspberry Pi 4という,広く採用されている2つのプラットフォーム上で,3つの代表的なTinyMLモデルをベンチマークした。
BeagleBone AI64はAI固有のタスクに対して一貫した推論レイテンシを示し、Raspberry Pi 4はリソース効率とコスト効率に優れています。
- 参考スコア(独自算出の注目度): 5.637804042390397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents PICO-TINYML-BENCHMARK, a modular and platform-agnostic framework for benchmarking the real-time performance of TinyML models on resource-constrained embedded systems. Evaluating key metrics such as inference latency, CPU utilization, memory efficiency, and prediction stability, the framework provides insights into computational trade-offs and platform-specific optimizations. We benchmark three representative TinyML models -- Gesture Classification, Keyword Spotting, and MobileNet V2 -- on two widely adopted platforms, BeagleBone AI64 and Raspberry Pi 4, using real-world datasets. Results reveal critical trade-offs: the BeagleBone AI64 demonstrates consistent inference latency for AI-specific tasks, while the Raspberry Pi 4 excels in resource efficiency and cost-effectiveness. These findings offer actionable guidance for optimizing TinyML deployments, bridging the gap between theoretical advancements and practical applications in embedded systems.
- Abstract(参考訳): 本稿では,リソース制約のある組込みシステム上でのTinyMLモデルのリアルタイム性能をベンチマークするための,モジュールおよびプラットフォームに依存しないフレームワークであるPICO-TINYML-BENCHMARKを提案する。
推論レイテンシ、CPU利用率、メモリ効率、予測安定性などの重要な指標を評価し、このフレームワークは計算トレードオフとプラットフォーム固有の最適化に関する洞察を提供する。
我々は、現実のデータセットを使用して、BeagleBone AI64とRaspberry Pi 4という2つの広く採用されているプラットフォーム上で、TinyMLの代表的な3つのモデルであるgesture Classification、Keyword Spotting、MobileNet V2をベンチマークした。
BeagleBone AI64はAI固有のタスクに対して一貫した推論レイテンシを示し、Raspberry Pi 4はリソース効率とコスト効率に優れています。
これらの発見は、TinyMLデプロイメントの最適化、理論的進歩と組み込みシステムにおける実践的応用とのギャップを埋めるための実用的なガイダンスを提供する。
関連論文リスト
- MiniCPM4: Ultra-Efficient LLMs on End Devices [126.22958722174583]
MiniCPM4は、エンドサイドデバイス向けに明示的に設計された高効率な大規模言語モデル(LLM)である。
この効率性は、モデルアーキテクチャ、トレーニングデータ、トレーニングアルゴリズム、推論システムという4つの重要な側面において、体系的な革新を通じて達成します。
論文 参考訳(メタデータ) (2025-06-09T16:16:50Z) - Harnessing On-Device Large Language Model: Empirical Results and Implications for AI PC [8.837470787975308]
エッジデバイス上の大規模言語モデル(LLM)は、大きなプライバシー上のメリットを提供する。
これらのオンデバイスLSMは、モデル容量の削減と必要な圧縮技術のために本質的に性能上の制限に直面している。
デバイス上でのLCMを評価するために,モデル能力,開発効率,システム資源を包含する体系的方法論を導入する。
論文 参考訳(メタデータ) (2025-05-21T02:23:01Z) - Can LLMs Revolutionize the Design of Explainable and Efficient TinyML Models? [8.953379216683736]
本稿では,小さな機械学習(TinyML)プラットフォームに特化して,効率的なニューラルネットワークアーキテクチャを設計するための新しいフレームワークを提案する。
大規模言語モデル(LLM)をニューラルネットワーク探索(NAS)、視覚変換器(ViT)ベースの知識蒸留(KD)戦略、説明可能性モジュールに活用することにより、精度、計算効率、メモリ使用率の最適なバランスをとることができる。
論文 参考訳(メタデータ) (2025-04-13T18:36:03Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。