論文の概要: TinyML Platforms Benchmarking
- arxiv url: http://arxiv.org/abs/2112.01319v1
- Date: Tue, 30 Nov 2021 15:26:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 17:33:18.451400
- Title: TinyML Platforms Benchmarking
- Title(参考訳): TinyMLプラットフォームのベンチマーク
- Authors: Anas Osman, Usman Abid, Luca Gemma, Matteo Perotto, and Davide
Brunelli
- Abstract要約: 機械学習(ML)のための超低消費電力組み込みデバイス(Ultra-low Power embedded device)の最近の進歩は、新しい種類の製品を可能にしている。
TinyMLは、低消費電力の組み込みデバイス上でエッジでデータを集約して分析することで、ユニークなソリューションを提供する。
MLモデルのデプロイを容易にするため、さまざまなプラットフォーム向けに多くのTinyMLフレームワークが開発されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in state-of-the-art ultra-low power embedded devices for
machine learning (ML) have permitted a new class of products whose key features
enable ML capabilities on microcontrollers with less than 1 mW power
consumption (TinyML). TinyML provides a unique solution by aggregating and
analyzing data at the edge on low-power embedded devices. However, we have only
recently been able to run ML on microcontrollers, and the field is still in its
infancy, which means that hardware, software, and research are changing
extremely rapidly. Consequently, many TinyML frameworks have been developed for
different platforms to facilitate the deployment of ML models and standardize
the process. Therefore, in this paper, we focus on bench-marking two popular
frameworks: Tensorflow Lite Micro (TFLM) on the Arduino Nano BLE and CUBE AI on
the STM32-NucleoF401RE to provide a standardized framework selection criterion
for specific applications.
- Abstract(参考訳): 機械学習(ML)のための最先端の超低消費電力デバイス(Ultra-low Power Device)の最近の進歩は、1mW未満の電力消費(TinyML)を持つマイクロコントローラ上でML機能を実現する新しい種類の製品を可能にしている。
TinyMLは、低消費電力の組み込みデバイス上でエッジでデータを集約して分析することで、ユニークなソリューションを提供する。
しかし、最近になってマイクロコントローラ上でMLを実行できるようになったばかりで、この分野はまだ初期段階であり、ハードウェア、ソフトウェア、研究は急速に変化している。
その結果、さまざまなプラットフォーム向けに多くのTinyMLフレームワークが開発され、MLモデルのデプロイとプロセスの標準化が容易になった。
そこで本稿では,stm32-nucleof401reにおけるarduino nano bleのtensorflow lite micro(tflm)とcube aiの2つの人気フレームワークのベンチマークに着目し,特定のアプリケーション向けに標準化されたフレームワーク選択基準を提供する。
関連論文リスト
- DeeR-VLA: Dynamic Inference of Multimodal Large Language Models for Efficient Robot Execution [114.61347672265076]
実世界のロボットのためのMLLMの開発は、ロボットプラットフォームで利用可能な計算能力とメモリ容量が典型的に限られているため、難しい。
活性化MLLMのサイズを自動的に調整するロボットビジョンランゲージ・アクション・モデル(DeeR)の動的早期実行フレームワークを提案する。
DeeR は LLM の計算コストを 5.2-6.5x に削減し、GPU のメモリを 2-6x に削減した。
論文 参考訳(メタデータ) (2024-11-04T18:26:08Z) - MiniCPM-V: A GPT-4V Level MLLM on Your Phone [83.10007643273521]
MiniCPM-Vは、エンドサイドデバイスにデプロイ可能な効率的なMLLMのシリーズである。
アーキテクチャ、事前トレーニング、アライメントに最新のMLLM技術を統合することで、MiniCPM-V 2.5にはいくつかの注目すべき特徴がある。
MiniCPM-V は有望な傾向の代表的な例と見なすことができる。
論文 参考訳(メタデータ) (2024-08-03T15:02:21Z) - MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - MLonMCU: TinyML Benchmarking with Fast Retargeting [1.4319942396517]
特定のアプリケーションに対して、フレームワークとターゲットの最適な組み合わせを選択するのは簡単ではありません。
MLonMCUと呼ばれるツールが提案され,最新のTinyMLフレームワークであるTFLite for MicrocontrollersとTVMのベンチマークによって実証されている。
論文 参考訳(メタデータ) (2023-06-15T08:44:35Z) - TinyReptile: TinyML with Federated Meta-Learning [9.618821589196624]
メタラーニングとオンラインラーニングにインスパイアされた,シンプルだが効率的なアルゴリズムであるTinyReptileを提案する。
Raspberry Pi 4とCortex-M4 MCUで256KBのRAMでTinyReptileをデモした。
論文 参考訳(メタデータ) (2023-04-11T13:11:10Z) - TinyML: Tools, Applications, Challenges, and Future Research Directions [2.9398911304923456]
TinyMLは、安価でリソースに制約のあるデバイス上でのMLアプリケーションを可能にする、組み込み機械学習技術である。
この記事では、TinyML実装で利用可能なさまざまな方法についてレビューする。
論文 参考訳(メタデータ) (2023-03-23T15:29:48Z) - A review of TinyML [0.0]
TinyMLの組み込み機械学習の概念は、このような多様性を、通常のハイエンドアプローチからローエンドアプリケーションへと押し上げようとしている。
TinyMLは、機械学習、ソフトウェア、ハードウェアの統合において、急速に拡大する学際的なトピックである。
本稿では,TinyMLがいくつかの産業分野,その障害,その将来的な範囲にどのようなメリットをもたらすのかを考察する。
論文 参考訳(メタデータ) (2022-11-05T06:02:08Z) - How to Manage Tiny Machine Learning at Scale: An Industrial Perspective [5.384059021764428]
TinyML(TinyML)は、ユビキタスマイクロコントローラ上で機械学習(ML)が民主化され、広く普及している。
TinyMLモデルは異なる構造で開発されており、その動作原理を明確に理解せずに配布されることが多い。
本稿では,TinyMLモデルとIoTデバイスを大規模に管理するためのセマンティックWeb技術を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-18T10:36:11Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。