論文の概要: On-Sensor Convolutional Neural Networks with Early-Exits
- arxiv url: http://arxiv.org/abs/2503.16939v1
- Date: Fri, 21 Mar 2025 08:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:58:08.427386
- Title: On-Sensor Convolutional Neural Networks with Early-Exits
- Title(参考訳): 初期出力を持つオンセンサ畳み込みニューラルネットワーク
- Authors: Hazem Hesham Yousef Shalby, Arianna De Vecchi, Alice Scandelli, Pietro Bartoli, Diana Trojaniello, Manuel Roveri, Federica Villa,
- Abstract要約: 本稿では,STマイクロエレクトロニクスによる慣性計測ユニット(IMU)内の知的センサ処理ユニット(ISPU)で動作するDepth-First CNNの設計と実装について,文献の中で初めて紹介する。
本手法では,ISPU とマイクロコントローラ (MCU) 間の CNN を分割し,結果に対する十分な信頼が得られた場合,IMU 上の計算を停止するための早期実行機構を用いる。
- 参考スコア(独自算出の注目度): 3.916521228619074
- License:
- Abstract: Tiny Machine Learning (TinyML) is a novel research field aiming at integrating Machine Learning (ML) within embedded devices with limited memory, computation, and energy. Recently, a new branch of TinyML has emerged, focusing on integrating ML directly into the sensors to further reduce the power consumption of embedded devices. Interestingly, despite their state-of-the-art performance in many tasks, none of the current solutions in the literature aims to optimize the implementation of Convolutional Neural Networks (CNNs) operating directly into sensors. In this paper, we introduce for the first time in the literature the optimized design and implementation of Depth-First CNNs operating on the Intelligent Sensor Processing Unit (ISPU) within an Inertial Measurement Unit (IMU) by STMicroelectronics. Our approach partitions the CNN between the ISPU and the microcontroller (MCU) and employs an Early-Exit mechanism to stop the computations on the IMU when enough confidence about the results is achieved, hence significantly reducing power consumption. When using a NUCLEO-F411RE board, this solution achieved an average current consumption of 4.8 mA, marking an 11% reduction compared to the regular inference pipeline on the MCU, while having equal accuracy.
- Abstract(参考訳): Tiny Machine Learning (TinyML)は、メモリ、計算、エネルギーに制限のある組み込みデバイスに機械学習(ML)を統合することを目的とした、新しい研究分野である。
近年,組み込みデバイスの消費電力をさらに削減するために,センサに直接MLを統合することに焦点を当てた,TinyMLの新しいブランチが登場した。
興味深いことに、多くのタスクにおける最先端のパフォーマンスにもかかわらず、文学における現在のソリューションのどれも、センサーに直接動作する畳み込みニューラルネットワーク(CNN)の実装を最適化することを目的としていない。
本稿では,STマイクロエレクトロニクスによる慣性計測ユニット(IMU)内において,Intelligent Sensor Processing Unit(ISPU)で動作するDepth-First CNNの設計と実装について,文献的に初めて紹介する。
本手法では,ISPU とマイクロコントローラ (MCU) 間の CNN を分割し,IMU 上の計算を十分に信頼できた場合に停止させる早期実行機構を用いて,消費電力を大幅に削減する。
NUCLEO-F411REボードを使用する場合、このソリューションは4.8mAの平均電流消費を達成し、MCUの通常の推論パイプラインと比べて11%削減され、精度は同等であった。
関連論文リスト
- Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - Accelerating TinyML Inference on Microcontrollers through Approximate Kernels [3.566060656925169]
本研究では、近似計算とソフトウェアカーネル設計を組み合わせることで、マイクロコントローラ上での近似CNNモデルの推定を高速化する。
CIFAR-10データセットでトレーニングされたSTM32-Nucleoボードと2つの人気のあるCNNによる評価は、最先端の正確な推測と比較すると、平均21%のレイテンシ削減が可能であることを示している。
論文 参考訳(メタデータ) (2024-09-25T11:10:33Z) - Low Latency Visual Inertial Odometry with On-Sensor Accelerated Optical Flow for Resource-Constrained UAVs [13.037162115493393]
オンセンサーハードウェアアクセラレーションは、低遅延視覚慣性オドメトリー(VIO)を実現するための有望なアプローチである
本稿では,グローバルシャッターカメラとアプリケーション固有集積回路(ASIC)を組み合わせたコンパクトなOFセンサを利用したVIOセンサシステムの高速化について検討する。
VINS-Monoパイプラインの機能追跡ロジックをこのOFカメラのデータに置き換えることで、49.4%のレイテンシの削減と、元のVINS-Mono実装よりも53.7%の計算負荷の削減を実証した。
論文 参考訳(メタデータ) (2024-06-19T08:51:19Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Trimming Feature Extraction and Inference for MCU-based Edge NILM: a
Systematic Approach [14.491636333680297]
非侵入負荷モニタリング(NILM)は、複数の負荷のグローバルな電力消費を、単一のスマート電気メーターから、アプライアンスレベルの詳細に分解することを可能にする。
State-of-the-Artアプローチは機械学習手法に基づいており、電流と電圧センサーからの時間領域と周波数領域の機能の融合を利用する。
低レイテンシNILMを低コストでリソース制約のあるMCUベースのメーターで実行することは、現在オープンな課題である。
本稿では,特徴空間の最適化と,ステート・オブ・ザ・ステートの実行に必要な計算・記憶コストの削減について述べる。
論文 参考訳(メタデータ) (2021-05-21T12:08:16Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Convolutional-Recurrent Neural Networks on Low-Power Wearable Platforms
for Cardiac Arrhythmia Detection [0.18459705687628122]
マイクロコントローラと低消費電力プロセッサで動作するニューラルネットワークの推論に焦点を当てる。
心不整脈を検出・分類するために既存の畳み込みリカレントニューラルネットワークを適用した。
メモリフットプリントは195.6KB、スループットは33.98MOps/sである。
論文 参考訳(メタデータ) (2020-01-08T10:35:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。