論文の概要: MicroBi-ConvLSTM: An Ultra-Lightweight Efficient Model for Human Activity Recognition on Resource Constrained Devices
- arxiv url: http://arxiv.org/abs/2602.06523v1
- Date: Fri, 06 Feb 2026 09:26:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.311125
- Title: MicroBi-ConvLSTM: An Ultra-Lightweight Efficient Model for Human Activity Recognition on Resource Constrained Devices
- Title(参考訳): MicroBi-ConvLSTM:資源制約デバイス上での人間の活動認識のための超軽量モデル
- Authors: Mridankan Mandal,
- Abstract要約: リソース制約のあるウェアラブル上でのヒューマンアクティビティ認識(HAR)は、厳格なメモリと計算予算との精度のバランスをとるモデルを必要とする。
提案するMicroBi-ConvLSTMは, 平均11.4Kのパラメータを達成できる超軽量畳み込み並列アーキテクチャである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human Activity Recognition (HAR) on resource constrained wearables requires models that balance accuracy against strict memory and computational budgets. State of the art lightweight architectures such as TinierHAR (34K parameters) and TinyHAR (55K parameters) achieve strong accuracy, but exceed memory budgets of microcontrollers with limited SRAM once operating system overhead is considered. We present MicroBi-ConvLSTM, an ultra-lightweight convolutional-recurrent architecture achieving 11.4K parameters on average through two stage convolutional feature extraction with 4x temporal pooling and a single bidirectional LSTM layer. This represents 2.9x parameter reduction versus TinierHAR and 11.9x versus DeepConvLSTM while preserving linear O(N) complexity. Evaluation across eight diverse HAR benchmarks shows that MicroBi-ConvLSTM maintains competitive performance within the ultra-lightweight regime: 93.41% macro F1 on UCI-HAR, 94.46% on SKODA assembly gestures, and 88.98% on Daphnet gait freeze detection. Systematic ablation reveals task dependent component contributions where bidirectionality benefits episodic event detection, but provides marginal gains on periodic locomotion. INT8 post training quantization incurs only 0.21% average F1-score degradation, yielding a 23.0 KB average deployment footprint suitable for memory constrained edge devices.
- Abstract(参考訳): リソース制約のあるウェアラブル上でのヒューマンアクティビティ認識(HAR)は、厳格なメモリと計算予算との精度のバランスをとるモデルを必要とする。
TinierHAR (34Kパラメータ) や TinyHAR (55Kパラメータ) のような最先端の軽量アーキテクチャは高い精度を達成しているが、オペレーティングシステムのオーバーヘッドを考慮するとSRAMに制限のあるマイクロコントローラのメモリ予算を超える。
超軽量の畳み込み再帰型アーキテクチャであるMicroBi-ConvLSTMを提案する。
これは、線形 O(N) の複雑性を保ちながら、TinierHAR と DeepConvLSTM に対して 2.9x のパラメータ還元と 11.9x のパラメータ減少を表す。
8つの多様なHARベンチマークによる評価によると、MicroBi-ConvLSTMはUCI-HARの93.41%マクロF1、SKODAの94.46%、Daphnetの歩行凍結検出の88.98%という超軽量なシステム内での競争性能を維持している。
システマティックアブレーションは、双方向性がエピソードな事象検出に寄与するタスク依存コンポーネントの寄与を明らかにするが、周期的な移動に限界的な利得を与える。
INT8後のトレーニング量子化では、平均F1スコアの劣化は0.21%に過ぎず、メモリ制約エッジデバイスに適した平均23.0KBのデプロイメントフットプリントが得られる。
関連論文リスト
- Real-Time Human Activity Recognition on Edge Microcontrollers: Dynamic Hierarchical Inference with Multi-Spectral Sensor Fusion [7.184610830886172]
本稿では,マルチスペクトル融合と解釈可能なモジュールに基づくリソース対応階層型ネットワークを提案する。
低消費電力のリアルタイム推論のためにARM Cortex-M4マイクロコントローラ上にデプロイされたHPPI-Netは96.70%の精度を実現している。
MobileNetV3と比較して、HPPI-Netは精度を1.22%改善し、RAM使用量を71.2%削減し、ROM使用量を42.1%削減した。
論文 参考訳(メタデータ) (2026-01-29T15:21:45Z) - DS-CIM: Digital Stochastic Computing-In-Memory Featuring Accurate OR-Accumulation via Sample Region Remapping for Edge AI Models [8.92683306412944]
本稿では,高い精度と効率を実現するデジタルCIM(DS-CIM)アーキテクチャを提案する。
データ表現を変更することで、コンパクトで符号のないORベースの回路に乗算累積(MAC)を実装する。
我々のコア戦略である2Dの共有ランダム数生成器(PRNG)は、単一サイクルの排他的アクティベーションによりORゲート衝突を排除します。
論文 参考訳(メタデータ) (2026-01-10T23:56:33Z) - Every Attention Matters: An Efficient Hybrid Architecture for Long-Context Reasoning [73.10669391954801]
本稿では、Ring-mini-linear-2.0およびRing-flash-linear-2.0を含むRing-linearモデルシリーズについて述べる。
どちらのモデルも線形アテンションとソフトマックスアテンションを効果的に統合するハイブリッドアーキテクチャを採用している。
32億のパラメータ密度モデルと比較して、このシリーズは推論コストを1/10に削減し、元のRingシリーズと比較すると、コストも50%以上削減される。
論文 参考訳(メタデータ) (2025-10-22T07:59:38Z) - AMS-QUANT: Adaptive Mantissa Sharing for Floating-point Quantization [7.413057271242686]
量子化、特に浮動小数点量子化は、大きな言語モデル(LLM)推論を高速化できることが知られている。
整数ビット幅から非整数ビット幅への浮動小数点量子化探索を探索するAMS-Quantを提案する。
AMS-Quant はモデルを FP-5.33-e2m3 と FP4.25-e2m2 に量子化し、FP16 の推論よりもデコードを大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2025-10-16T15:37:23Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - RadMamba: Efficient Human Activity Recognition through Radar-based Micro-Doppler-Oriented Mamba State-Space Model [4.200994756075655]
本稿では,レーダベースHARに特化して,パラメータ効率の高いマイクロドップラー指向のMamba SSMであるRadMambaを紹介する。
3つの多様なデータセットの中で、RadMambaは前モデルの99.8%の分類精度でトップパフォーマンスのモデルと一致している。
論文 参考訳(メタデータ) (2025-04-16T12:54:11Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - HARMamba: Efficient and Lightweight Wearable Sensor Human Activity Recognition Based on Bidirectional Mamba [7.412537185607976]
ウェアラブルセンサーによる人間の活動認識(HAR)は、活動知覚において重要な研究領域である。
HARMambaは、選択的な双方向状態空間モデルとハードウェア対応設計を組み合わせた、革新的な軽量で多用途なHARアーキテクチャである。
HarMambaは現代の最先端フレームワークより優れており、計算とメモリの要求を大幅に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2024-03-29T13:57:46Z) - DB-LLM: Accurate Dual-Binarization for Efficient LLMs [83.70686728471547]
大規模言語モデル(LLM)は自然言語処理の分野を著しく進歩させてきた。
既存の超低ビット量子化は、常に深刻な精度低下を引き起こす。
本稿では,LLM,すなわちDB-LLMのための新しいデュアルバイナライズ手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T09:04:30Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。