論文の概要: Neural-HAR: A Dimension-Gated CNN Accelerator for Real-Time Radar Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2510.22772v1
- Date: Sun, 26 Oct 2025 17:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.359677
- Title: Neural-HAR: A Dimension-Gated CNN Accelerator for Real-Time Radar Human Activity Recognition
- Title(参考訳): Neural-HAR:リアルタイムレーダ活動認識のための次元ゲートCNN加速器
- Authors: Yizhuo Wu, Francesco Fioranelli, Chang Gao,
- Abstract要約: 本稿では,資源制約のあるプラットフォーム上でのリアルタイムレーダHARに適した次元ゲート型CNNアクセラレータを提案する。
GateCNNの精度は86.4%で、パラメータは2.7kで、推論あたり0.28M FLOPはCNN-BiGRUに匹敵する。
Xilinx Zynq-7000 Z-7007SのFPGAプロトタイプは、LUTベースのROMと分散RAMのみを使用した107.5$mu$sレイテンシと15mWのダイナミックパワーを実現しました。
- 参考スコア(独自算出の注目度): 5.400353553418959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar-based human activity recognition (HAR) is attractive for unobtrusive and privacy-preserving monitoring, yet many CNN/RNN solutions remain too heavy for edge deployment, and even lightweight ViT/SSM variants often exceed practical compute and memory budgets. We introduce Neural-HAR, a dimension-gated CNN accelerator tailored for real-time radar HAR on resource-constrained platforms. At its core is GateCNN, a parameter-efficient Doppler-temporal network that (i) embeds Doppler vectors to emphasize frequency evolution over time and (ii) applies dual-path gated convolutions that modulate Doppler-aware content features with temporal gates, complemented by a residual path for stable training. On the University of Glasgow UoG2020 continuous radar dataset, GateCNN attains 86.4% accuracy with only 2.7k parameters and 0.28M FLOPs per inference, comparable to CNN-BiGRU at a fraction of the complexity. Our FPGA prototype on Xilinx Zynq-7000 Z-7007S reaches 107.5 $\mu$s latency and 15 mW dynamic power using LUT-based ROM and distributed RAM only (zero DSP/BRAM), demonstrating real-time, energy-efficient edge inference. Code and HLS conversion scripts are available at https://github.com/lab-emi/AIRHAR.
- Abstract(参考訳): レーダーベースのヒューマンアクティビティ認識(HAR)は、邪魔にならない、プライバシー保護の監視には魅力的だが、多くのCNN/RNNソリューションは、エッジデプロイメントには重すぎる。
本稿では,資源制約のあるプラットフォーム上でのリアルタイムレーダHARに適した次元ゲートCNNアクセラレータであるNeural-HARを紹介する。
コアとなるのはパラメータ効率の良いドップラー時間ネットワークであるGateCNNである。
(i)ドップラーベクトルを埋め込み、時間とともに周波数の進化を強調する。
(II) ドップラー対応のコンボリューションを時相ゲートで調整し, 安定訓練のための残留経路を補完する2経路ゲート畳み込みを施す。
グラスゴー大学 UoG2020 の連続レーダーデータセットでは、GateCNN は86.4%の精度で2.7kパラメータと0.28M FLOP しか得られていない。
Xilinx Zynq-7000 Z-7007SのFPGAプロトタイプは、LUTベースのROMと分散RAMのみ(ゼロDSP/BRAM)を使用した107.5$\mu$sレイテンシと15mWダイナミックパワーに達し、リアルタイムでエネルギー効率の良いエッジ推論を実証した。
コードとHLS変換スクリプトはhttps://github.com/lab-emi/AIRHARで入手できる。
関連論文リスト
- Enabling Vibration-Based Gesture Recognition on Everyday Furniture via Energy-Efficient FPGA Implementation of 1D Convolutional Networks [11.481972015296812]
本研究では、低消費電力フィールドプログラマブルゲートアレイ(FPGA)上にコンパクトNNを展開させるエネルギー効率のよいソリューションを提案する。
我々は、複雑なスペクトル前処理を生波形入力に置き換え、複雑なオンボード前処理を不要とし、精度を犠牲にすることなく入力サイズを21倍削減する。
組み込みFPGAに適した2つの軽量アーキテクチャ(1D-CNNと1D-SepCNN)を設計し、パラメータを3億6900万から216に削減し、同等の精度を維持した。
論文 参考訳(メタデータ) (2025-10-27T09:30:36Z) - Lightweight DNN for Full-Band Speech Denoising on Mobile Devices: Exploiting Long and Short Temporal Patterns [4.121578819979242]
フルバンド音声認識のための因果性,低レイテンシ,軽量ディープニューラルネットワーク(DNN)に基づく手法を提案する。
この手法は、ルックバックフレーム、畳み込みカーネルの時間的スパンニング、リカレントニューラルネットワークを用いた、修正されたUNetアーキテクチャに基づいている。
提案手法は,確立された音声認識メトリクスと公開データセットを用いて評価する。
論文 参考訳(メタデータ) (2025-09-05T13:18:25Z) - Lightweight LIF-only SNN accelerator using differential time encoding [0.3749861135832073]
スパイキングニューラルネットワーク(SNN)は、現代の機械学習(ML)アプリケーションにおいて、計算とエネルギーの要求を増大させる問題に対して、有望な解決策を提供する。
スパイクとスパイクトレインを使用する独自のデータ表現の選択のため、彼らは主に、最先端(SOTA)人工ニューラルネットワーク(ANN)に近づく結果を達成するために追加としきい値操作に依存している。
この研究は、LIFのみのSNNをフィードフォワードで計算できるハードウェアアクセラレーターアーキテクチャと、既存のデータをスパイクトレインに効率的にエンコードするための符号化手法を導入する。
論文 参考訳(メタデータ) (2025-05-16T13:42:39Z) - Dynamic Tsetlin Machine Accelerators for On-Chip Training at the Edge using FPGAs [0.3440236962613469]
本稿では,Deep Neural Networks (DNN) の代替として,動的Tsetlin Machine (DTM) トレーニングアクセラレータを提案する。
DTMは、より少ない乗算累積で微分計算を欠いた訓練を行う。
提案された加速器は、Watt毎の毎秒2.54倍のギガ演算(GOP/s/W)を提供し、次の同等の設計よりも6倍少ない電力を使用する。
論文 参考訳(メタデータ) (2025-04-28T13:38:53Z) - Data-Free Dynamic Compression of CNNs for Tractable Efficiency [46.498278084317704]
構造化プルーニング手法は, 精度が大幅に低下することなく浮動小数点演算を低下させる可能性を示唆している。
HASTE(Hashing for Tractable Efficiency)は,データフリーでプラグイン・アンド・プレイのコンボリューションモジュールで,トレーニングや微調整なしにネットワークのテスト時間推論コストを瞬時に低減する。
CIFAR-10とImageNetでは46.72%のFLOPを1.25%の精度で削減した。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Vau da muntanialas: Energy-efficient multi-die scalable acceleration of
RNN inference [18.50014427283814]
LSTM推論のためのRNN加速器アーキテクチャであるMuntanialaを3.25ドルTOP/s/W$のシリコン測定エネルギー効率で紹介する。
Muntaniala のスケーラブルな設計により,複数のタイルをサイストリック配列に組み合わせることで,大規模な RNN モデルの実行が可能になる。
3L-384NH-123NI LSTMネットワーク上での浮動小数点(FP)に対する音素誤り率(PER)の約3%の低下を示す。
論文 参考訳(メタデータ) (2022-02-14T09:21:16Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。