論文の概要: MLonMCU: TinyML Benchmarking with Fast Retargeting
- arxiv url: http://arxiv.org/abs/2306.08951v1
- Date: Thu, 15 Jun 2023 08:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:56:26.926211
- Title: MLonMCU: TinyML Benchmarking with Fast Retargeting
- Title(参考訳): MLonMCU: 高速リターゲットによるTinyMLベンチマーク
- Authors: Philipp van Kempen, Rafael Stahl, Daniel Mueller-Gritschneder, Ulf
Schlichtmann
- Abstract要約: 特定のアプリケーションに対して、フレームワークとターゲットの最適な組み合わせを選択するのは簡単ではありません。
MLonMCUと呼ばれるツールが提案され,最新のTinyMLフレームワークであるTFLite for MicrocontrollersとTVMのベンチマークによって実証されている。
- 参考スコア(独自算出の注目度): 1.4319942396517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there exist many ways to deploy machine learning models on
microcontrollers, it is non-trivial to choose the optimal combination of
frameworks and targets for a given application. Thus, automating the end-to-end
benchmarking flow is of high relevance nowadays. A tool called MLonMCU is
proposed in this paper and demonstrated by benchmarking the state-of-the-art
TinyML frameworks TFLite for Microcontrollers and TVM effortlessly with a large
number of configurations in a low amount of time.
- Abstract(参考訳): マイクロコントローラに機械学習モデルをデプロイする方法はたくさんありますが、特定のアプリケーションのためのフレームワークとターゲットの最適な組み合わせを選択するのは簡単ではありません。
したがって、今やエンドツーエンドのベンチマークフローの自動化は、高い関係にある。
MLonMCUと呼ばれるツールを提案し,マイクロコントローラ用TFLiteとTVM用の最先端TinyMLフレームワークのベンチマークを行い,多数の構成を短時間で行うことを実証した。
関連論文リスト
- InfiMM-Eval: Complex Open-Ended Reasoning Evaluation For Multi-Modal
Large Language Models [50.03163753638256]
MLLM(Multi-modal Large Language Models)は人工知能の分野で注目されている。
本ベンチマークは, 帰納的, 帰納的, 類推的推論の3つの主要な推論カテゴリから構成される。
我々は,この厳密に開発されたオープンエンド多段階精巧な推論ベンチマークを用いて,代表MLLMの選択を評価する。
論文 参考訳(メタデータ) (2023-11-20T07:06:31Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - MEMA Runtime Framework: Minimizing External Memory Accesses for TinyML
on Microcontrollers [3.1823074562424756]
本稿では,TinyMLシステムにおける行列乗算のための外部メモリアクセスを最小限に抑える,効率的な推論ランタイムのためのMEMAフレームワークを提案する。
我々は,MEMAから派生したランタイムと,ARMベースのTinyMLシステム上での既存の最先端ライブラリのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2023-04-12T00:27:11Z) - MinUn: Accurate ML Inference on Microcontrollers [2.2638536653874195]
TinyMLとして知られる小さなデバイスで機械学習推論を実行することは、新たな研究分野である。
MinUnは、ARMマイクロコントローラの効率的なコードを生成するために、これらの問題に一様に対処する最初のTinyMLフレームワークである。
論文 参考訳(メタデータ) (2022-10-29T10:16:12Z) - TinyML Platforms Benchmarking [0.0]
機械学習(ML)のための超低消費電力組み込みデバイス(Ultra-low Power embedded device)の最近の進歩は、新しい種類の製品を可能にしている。
TinyMLは、低消費電力の組み込みデバイス上でエッジでデータを集約して分析することで、ユニークなソリューションを提供する。
MLモデルのデプロイを容易にするため、さまざまなプラットフォーム向けに多くのTinyMLフレームワークが開発されている。
論文 参考訳(メタデータ) (2021-11-30T15:26:26Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - MicroNets: Neural Network Architectures for Deploying TinyML
Applications on Commodity Microcontrollers [18.662026553041937]
リソース制約付きマイクロコントローラ(MCU)による機械学習は、IoT(Internet of Things)のアプリケーション領域を大幅に拡大することを約束する
TinyMLは、ディープニューラルネットワーク推論が大きな計算とメモリの予算を必要とするため、深刻な技術的課題を提示している。
ニューラルネットワークサーチ(NAS)は、厳密なMCUメモリ、レイテンシ、エネルギー制約を満たす正確なMLモデルの設計を支援する。
論文 参考訳(メタデータ) (2020-10-21T19:39:39Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - Benchmarking TinyML Systems: Challenges and Direction [10.193715318589812]
我々は、TinyMLの現在の状況を説明し、TinyMLワークロードのための公平で有用なハードウェアベンチマークを開発するための課題と方向性について論じる。
私たちの視点は、30以上の組織から構成されるTinyMLPerfワーキンググループの集合的思考を反映しています。
論文 参考訳(メタデータ) (2020-03-10T15:58:12Z) - Meta Matrix Factorization for Federated Rating Predictions [84.69112252208468]
フェデレートされたレコメンデーターシステムは、従来のレコメンデーターシステムよりもプライバシー保護という点で明確なアドバンテージを持っている。
フェデレートされたレコメンデータシステムに関するこれまでの研究は、モバイル環境におけるストレージ、RAM、エネルギ、通信帯域の制限を十分に考慮していない。
本研究の目的は,モバイル環境を対象としたレーティング予測(RP)のための新しい統合学習フレームワークを設計することである。
論文 参考訳(メタデータ) (2019-10-22T16:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。