論文の概要: Performance Analysis of Edge and In-Sensor AI Processors: A Comparative Review
- arxiv url: http://arxiv.org/abs/2603.08725v1
- Date: Wed, 18 Feb 2026 07:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.498138
- Title: Performance Analysis of Edge and In-Sensor AI Processors: A Comparative Review
- Title(参考訳): エッジおよびインセンサーAIプロセッサの性能分析:比較検討
- Authors: Luigi Capogrosso, Pietro Bonazzi, Michele Magno,
- Abstract要約: 本稿では,超低消費電力エッジプロセッサの現況を概観する。
我々は,その計算パラダイム,パワーエンベロープ,メモリ階層に応じて,市販および研究グレードのプラットフォームを分類する。
我々は3つの代表プロセッサ上で3億3600万の乗算積(MAC)セグメンテーションモデル(PicoSAM2)をベンチマークする。
- 参考スコア(独自算出の注目度): 9.350342235384081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This review examines the rapidly evolving landscape of ultra-low-power edge processors, covering heterogeneous Systems-on-Chips (SoCs), neural accelerators, near-sensor and in-sensor architectures, and emerging dataflow and memory-centric designs. We categorize commercially available and research-grade platforms according to their compute paradigms, power envelopes, and memory hierarchies, and analyze their suitability for always-on and latency-critical Artificial Intelligence (AI) workloads. To complement the architectural overview with empirical evidence, we benchmark a 336 million Multiply-Accumulate (MAC) segmentation model (PicoSAM2) on three representative processors: GAP9, leveraging a multi-core RISC-V architecture augmented with hardware accelerators; the STM32N6, which pairs an advanced ARM Cortex-M55 core with a dedicated neural architecture accelerator; and the Sony IMX500, representing in-sensor stacked-Complementary Metal-Oxide-Semiconductor (CMOS) compute. Collectively, these platforms span MCU-class, embedded neural accelerator, and in-sensor paradigms. The evaluation reports latency, inference efficiency, energy efficiency, and energy-delay product. The results show a clear divergence in hardware behavior, with the IMX500 achieving the highest utilization (86.2 MAC/cycle) and the lowest energy-delay product, highlighting the growing significance and technological maturity of in-sensor processing. GAP9 offers the best energy efficiency within microcontroller-class power budgets, and the STM32N6 provides the lowest raw latency at a significantly higher energy cost. Together, the review and benchmarks provide a unified view of the current design directions and practical trade-offs that are shaping the next generation of ultra-low-power and in-sensor AI processors.
- Abstract(参考訳): このレビューでは、超低消費電力エッジプロセッサの急速な発展、異種システムオンチップ(SoC)、ニューラルアクセラレーター、ニアセンサーとインセンサーアーキテクチャ、新しいデータフローとメモリ中心の設計について考察する。
商用および研究グレードのプラットフォームは、計算パラダイム、パワーエンベロープ、メモリ階層に基づいて分類し、常時オンかつレイテンシクリティカルな人工知能(AI)ワークロードに対する適合性を分析します。
GAP9はハードウェアアクセラレーションに強化されたマルチコアRISC-Vアーキテクチャ、STM32N6はARM Cortex-M55コアと専用アーキテクチャアクセラレーションを組み合わせたもので、Sony IMX500はインセンサースタックされた金属-酸化物-半導体(CMOS)計算である。
まとめると、これらのプラットフォームはMCUクラス、組み込みニューラルアクセラレータ、センサー内パラダイムにまたがる。
評価では、遅延、推論効率、エネルギー効率、エネルギー遅延を報告している。
IMX500は最も高い利用率(86.2MAC/サイクル)と最低のエネルギー遅延生成物を達成し、センサー内処理の重要度と技術成熟度が増している。
GAP9はマイクロコントローラ級の電力予算の中で最高のエネルギー効率を提供し、STM32N6は極めて高いエネルギーコストで最低の生のレイテンシを提供する。
レビューとベンチマークを合わせて、現在の設計方針と実践的なトレードオフの統一的なビューが提供され、次世代の超低消費電力およびセンサー内AIプロセッサを形作っている。
関連論文リスト
- Ultra-Low-Power Spiking Neurons in 7 nm FinFET Technology: A Comparative Analysis of Leaky Integrate-and-Fire, Morris-Lecar, and Axon-Hillock Architectures [0.0]
ニューロモルフィックコンピューティングは、大規模な人工知能応用のための脳の顕著なエネルギー効率と並列処理能力を再現することを目的としている。
7nmFinFET技術で実装された3つのスパイクニューロン回路アーキテクチャー、Leaky-and-Fire(LIF)、Moris-Lecar(ML)、Axon-Hillock(AH)について包括的な研究を行った。
以上の結果から,AH設計は最大スループットを達成し,マルチギガヘルツ発火速度(最大3GHz)とアトジュールエネルギーコストを示すことがわかった。
論文 参考訳(メタデータ) (2025-04-21T03:06:39Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Evaluating Emerging AI/ML Accelerators: IPU, RDU, and NVIDIA/AMD GPUs [14.397623940689487]
Graphcore Intelligence Processing Unit (IPU)、Sambanova Reconfigurable Dataflow Unit (RDU)、拡張GPUプラットフォームについてレビューする。
この研究は、これらの商用AI/MLアクセラレータの予備評価と比較を提供する。
論文 参考訳(メタデータ) (2023-11-08T01:06:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - MAPLE: Microprocessor A Priori for Latency Estimation [81.91509153539566]
現代のディープニューラルネットワークは、低レイテンシとエネルギー消費を示しながら最先端の精度を示す必要がある。
評価されたアーキテクチャのレイテンシの測定は、NASプロセスにかなりの時間を加えます。
転送学習やドメイン適応に依存しない推定用マイクロプロセッサAプライオリティを提案する。
論文 参考訳(メタデータ) (2021-11-30T03:52:15Z) - An In-Memory Analog Computing Co-Processor for Energy-Efficient CNN
Inference on Mobile Devices [4.117012092777604]
非揮発性メモリアレイ内のシナプス挙動とアクティベーション機能の両方を実現するインメモリアナログコンピューティング(IMAC)アーキテクチャを開発した。
スピン軌道トルク磁気抵抗ランダムアクセスメモリ(SOT-MRAM)装置を利用してシグモダルニューロンと双対シナプスを実現する。
モバイルプロセッサ上での畳み込みニューラルネットワーク(CNN)推論において、異種混合信号と混合精度のCPU-IMACアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-05-24T23:01:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。