論文の概要: Ternary-Input Binary-Weight CNN Accelerator Design for Miniature Object Classification System with Query-Driven Spatial DVS
- arxiv url: http://arxiv.org/abs/2512.00138v1
- Date: Fri, 28 Nov 2025 15:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.089043
- Title: Ternary-Input Binary-Weight CNN Accelerator Design for Miniature Object Classification System with Query-Driven Spatial DVS
- Title(参考訳): クエリ駆動空間DVSを用いた小型物体分類システムのための3入力2重CNN加速器の設計
- Authors: Yuyang Li, Swasthik Muloor, Jack Laudati, Nickolas Dematteis, Yidam Park, Hana Kim, Nathan Chang, Inhee Lee,
- Abstract要約: 本稿では,小型撮像システムにおけるオブジェクト分類に最適化されたCNNハードウェアアクセラレータを提案する。
空間的ダイナミックビジョンセンサー(DVS)からデータを処理し、画素共有やセンサ領域の最小化を通じて時間的DVSに再構成できる。
わずか1.6mWの電力消費で440msの推論時間を実現し、小型システムのCNNアクセラレーターよりもフィギュア・オブ・メリット(FoM)を7.3倍改善した。
- 参考スコア(独自算出の注目度): 2.124270150394225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Miniature imaging systems are essential for space-constrained applications but are limited by memory and power constraints. While machine learning can reduce data size by extracting key features, its high energy demands often exceed the capacity of small batteries. This paper presents a CNN hardware accelerator optimized for object classification in miniature imaging systems. It processes data from a spatial Dynamic Vision Sensor (DVS), reconfigurable to a temporal DVS via pixel sharing, minimizing sensor area. By using ternary DVS outputs and a ternary-input, binary-weight neural network, the design reduces computation and memory needs. Fabricated in 28 nm CMOS, the accelerator cuts data size by 81% and MAC operations by 27%. It achieves 440 ms inference time at just 1.6 mW power consumption, improving the Figure-of-Merit (FoM) by 7.3x over prior CNN accelerators for miniature systems.
- Abstract(参考訳): ミニチュアイメージングシステムは、空間制約のあるアプリケーションには不可欠であるが、メモリと電力の制約によって制限される。
機械学習は重要な特徴を抽出することでデータサイズを減らすことができるが、その高エネルギー需要は小さなバッテリーの容量を超えることが多い。
本稿では,小型撮像システムにおけるオブジェクト分類に最適化されたCNNハードウェアアクセラレータを提案する。
空間的ダイナミックビジョンセンサー(DVS)からデータを処理し、画素共有やセンサ領域の最小化を通じて時間的DVSに再構成できる。
3次DVS出力と3次入出力のバイナリ重み付けニューラルネットワークを使用することで、計算とメモリ要求を減らすことができる。
28nmのCMOSで作られ、データサイズを81%、MAC操作を27%削減する。
わずか1.6mWの電力消費で440msの推論時間を実現し、小型システムのCNNアクセラレーターよりもフィギュア・オブ・メリット(FoM)を7.3倍改善した。
関連論文リスト
- Low Power Vision Transformer Accelerator with Hardware-Aware Pruning and Optimized Dataflow [0.0]
本稿では,アルゴリズムハードウェアの共設計により最適化された低消費電力ビジョントランスフォーマーアクセラレータを提案する。
複雑な機構を導入することなく、ハードウェアフレンドリーな動的トークンプルーニングによってモデルの複雑さを低減させる。
ピークスループットは1GHzで1024 GOPS、エネルギー効率は2.31 TOPS/W、面積効率は858.61 GOPS/mm2である。
論文 参考訳(メタデータ) (2025-10-16T07:44:42Z) - SpiDR: A Reconfigurable Digital Compute-in-Memory Spiking Neural Network Accelerator for Event-based Perception [8.968583287058959]
スパイキングニューラルネットワーク(SNN)は、ダイナミックビジョンセンサー(DVS)によって生成された非同期時間データを効率的に処理する方法を提供する。
既存のSNNアクセラレータは、多様なニューロンモデル、ビット精度、ネットワークサイズへの適応性の制限に悩まされている。
本稿では,CIM (Citical Compute-in-Memory) SNNアクセラレーターを,拡張性および再構成性を備えたチップ名として提案する。
論文 参考訳(メタデータ) (2024-11-05T06:59:02Z) - TinyissimoYOLO: A Quantized, Low-Memory Footprint, TinyML Object
Detection Network for Low Power Microcontrollers [1.2846479438896337]
本稿では,TinyissimoYOLOと呼ばれる,高フレキシブル,量子化,メモリ効率,超軽量な物体検出ネットワークを提案する。
畳み込みニューラルネットワークの重みを格納するための0.5MB未満のメモリで、ミリワットの電力領域におけるマイクロコントローラのオブジェクト検出を可能にすることを目的としている。
論文 参考訳(メタデータ) (2023-05-22T12:57:38Z) - Sparse Compressed Spiking Neural Network Accelerator for Object
Detection [0.1246030133914898]
スパイキングニューラルネットワーク(SNN)は、人間の脳にインスパイアされ、バイナリスパイクと非常にスパースなアクティベーションマップを送信する。
本稿では, 活性化マップと重みの疎度を生かした, スパース圧縮スパイクニューラルネットワーク加速器を提案する。
ニューラルネットワークの実験結果は、71.5$%$mAPで、ISV 3clsデータセットの混合(1,3)タイムステップを示している。
論文 参考訳(メタデータ) (2022-05-02T09:56:55Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Adaptive Machine Learning for Time-Varying Systems: Low Dimensional
Latent Space Tuning [91.3755431537592]
本稿では,時間変化システムを対象とした適応機械学習手法を提案する。
我々は,エンコーダデコーダCNNのエンコーダ部出力において,非常に高次元(N>100k)の入力を低次元(N2)潜在空間にマッピングする。
そこで本手法では,割り込みを伴わないフィードバックに基づいて,内部の相関関係を学習し,その進化をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2021-07-13T16:05:28Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。