論文の概要: Ariel-ML: Computing Parallelization with Embedded Rust for Neural Networks on Heterogeneous Multi-core Microcontrollers
- arxiv url: http://arxiv.org/abs/2512.09800v1
- Date: Wed, 10 Dec 2025 16:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.592076
- Title: Ariel-ML: Computing Parallelization with Embedded Rust for Neural Networks on Heterogeneous Multi-core Microcontrollers
- Title(参考訳): Ariel-ML:不均一なマルチコアマイクロコントローラ上でのニューラルネットワークのための組み込みRustによる並列化計算
- Authors: Zhaolan Huang, Kaspar Schleiser, Gyungmin Myung, Emmanuel Baccelli,
- Abstract要約: Ariel-MLは、汎用的なTinyMLパイプラインと組み込みのRustソフトウェアプラットフォームを組み合わせた、新しいツールキットである。
また,既存のC/C++を組み込んだツールキットと比較して,Ariel-MLはメモリフットプリントに匹敵する性能を示した。
- 参考スコア(独自算出の注目度): 0.1633272850273525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-power microcontroller (MCU) hardware is currently evolving from single-core architectures to predominantly multi-core architectures. In parallel, new embedded software building blocks are more and more written in Rust, while C/C++ dominance fades in this domain. On the other hand, small artificial neural networks (ANN) of various kinds are increasingly deployed in edge AI use cases, thus deployed and executed directly on low-power MCUs. In this context, both incremental improvements and novel innovative services will have to be continuously retrofitted using ANNs execution in software embedded on sensing/actuating systems already deployed in the field. However, there was so far no Rust embedded software platform automating parallelization for inference computation on multi-core MCUs executing arbitrary TinyML models. This paper thus fills this gap by introducing Ariel-ML, a novel toolkit we designed combining a generic TinyML pipeline and an embedded Rust software platform which can take full advantage of multi-core capabilities of various 32bit microcontroller families (Arm Cortex-M, RISC-V, ESP-32). We published the full open source code of its implementation, which we used to benchmark its capabilities using a zoo of various TinyML models. We show that Ariel-ML outperforms prior art in terms of inference latency as expected, and we show that, compared to pre-existing toolkits using embedded C/C++, Ariel-ML achieves comparable memory footprints. Ariel-ML thus provides a useful basis for TinyML practitioners and resource-constrained embedded Rust developers.
- Abstract(参考訳): 低消費電力マイクロコントローラ(MCU)ハードウェアは現在、シングルコアアーキテクチャから主にマルチコアアーキテクチャへと進化している。
並行して、新しい組み込みソフトウェアビルディングブロックがRustで記述されるようになり、C/C++の優位性はこのドメインで減少する。
一方、さまざまな種類の小さな人工知能ニューラルネットワーク(ANN)は、エッジAIのユースケースにますます多くデプロイされ、低消費電力のMCUに直接デプロイされ、実行される。
このコンテキストでは、インクリメンタルな改善と革新的なサービスの両方を、すでにフィールドにデプロイされているセンサー/アクチュエータシステムに埋め込まれたソフトウェアで、ANNの実行を使用して継続的に再適合する必要があります。
しかしこれまでのところ、任意のTinyMLモデルを実行するマルチコアMCU上での推論計算を並列化するRust組み込みソフトウェアプラットフォームは存在しなかった。
そこで本稿では,汎用的なTinyMLパイプラインと,32ビットマイクロコントローラファミリー(Arm Cortex-M, RISC-V, ESP-32)のマルチコア機能を完全に活用可能な組み込みRustソフトウェアプラットフォームを組み合わせた,新しいツールキットであるAriel-MLを導入することにより,このギャップを埋める。
私たちは、さまざまなTinyMLモデルの動物園を使って、その能力をベンチマークするために、その実装の完全なオープンソースコードを公開した。
我々は,Ariel-MLが期待どおりの推論レイテンシで先行技術より優れており,既存のC/C++を組み込んだツールキットと比較して,Ariel-MLはメモリフットプリントに匹敵する性能を示した。
そのため、Ariel-MLはTinyMLの実践者とリソース制約のある組み込みRust開発者に有用な基盤を提供する。
関連論文リスト
- MicroFlow: An Efficient Rust-Based Inference Engine for TinyML [1.8902208722501446]
我々は、Rustプログラミング言語を使用した組み込みシステムにニューラルネットワーク(NN)をデプロイするためのオープンソースのフレームワークであるMicroFlowを紹介する。
提案するフレームワークは、リソース制約の高いデバイスへのNNのデプロイを成功させる。
論文 参考訳(メタデータ) (2024-09-28T18:34:27Z) - Deeploy: Enabling Energy-Efficient Deployment of Small Language Models On Heterogeneous Microcontrollers [11.365735615086292]
Deeployは新しいDeep Neural Network(DNN)コンパイラで、最小限のランタイムサポートを必要とする高度に最適化されたCコードを生成する。
Deeploy は RV32 コアの命令拡張と NPU をフル活用して,SLM の実行のためのエンドツーエンドコードを生成する。
我々は,TinyStoriesデータセットでトレーニングしたSLMに対して,毎秒SI340TokenでSI490マイクロジュールの最先端エネルギーとスループットを実現する。
論文 参考訳(メタデータ) (2024-08-08T12:40:27Z) - MCUFormer: Deploying Vision Transformers on Microcontrollers with
Limited Memory [76.02294791513552]
我々はMCUFormerと呼ばれるハードウェア・アルゴリズムの協調最適化手法を提案し、メモリが極端に制限されたマイクロコントローラにビジョントランスフォーマーを配置する。
MCUFormerは320KBのメモリを持つ画像分類のためのImageNet上で73.62%のTop-1精度を実現している。
論文 参考訳(メタデータ) (2023-10-25T18:00:26Z) - MinUn: Accurate ML Inference on Microcontrollers [2.2638536653874195]
TinyMLとして知られる小さなデバイスで機械学習推論を実行することは、新たな研究分野である。
MinUnは、ARMマイクロコントローラの効率的なコードを生成するために、これらの問題に一様に対処する最初のTinyMLフレームワークである。
論文 参考訳(メタデータ) (2022-10-29T10:16:12Z) - Towards efficient feature sharing in MIMO architectures [102.40140369542755]
マルチインプットのマルチアウトプットアーキテクチャでは、ひとつのベースネットワーク内でマルチワークをトレーニングし、サブネットワーク予測を平均化し、無料でアンサンブルの恩恵を受けることを提案している。
相対的な成功にもかかわらず、これらのアーキテクチャはパラメータの使用に不便である。
この論文では、学習したサブネットワークは、より小さなモバイルやAR/VRデバイスに適用性を制限する汎用的な機能でさえも共有できない点を強調します。
論文 参考訳(メタデータ) (2022-05-20T12:33:34Z) - TinyML Platforms Benchmarking [0.0]
機械学習(ML)のための超低消費電力組み込みデバイス(Ultra-low Power embedded device)の最近の進歩は、新しい種類の製品を可能にしている。
TinyMLは、低消費電力の組み込みデバイス上でエッジでデータを集約して分析することで、ユニークなソリューションを提供する。
MLモデルのデプロイを容易にするため、さまざまなプラットフォーム向けに多くのTinyMLフレームワークが開発されている。
論文 参考訳(メタデータ) (2021-11-30T15:26:26Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。