論文の概要: SPLite Hand: Sparsity-Aware Lightweight 3D Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2510.16396v1
- Date: Sat, 18 Oct 2025 08:19:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.98148
- Title: SPLite Hand: Sparsity-Aware Lightweight 3D Hand Pose Estimation
- Title(参考訳): SPLiteハンズオン:スポーサリティを意識した軽量3Dハンドポース推定
- Authors: Yeh Keng Hao, Hsu Tzu Wei, Sun Min,
- Abstract要約: 我々は,エンコーダ・デコーダアーキテクチャを採用した軽量なフレームワークを設計し,効率性と精度の向上を目的としたいくつかの重要なコントリビューションを紹介する。
本研究では,ResNet-18のバックボーンにスパース畳み込みを適用し,手ポーズ画像の空間性を利用して,エンドツーエンドの効率改善を42%達成する。
このアーキテクチャにより、復号プロセスのフレームレートはRaspberry Pi 5の3.1倍向上し、精度は同等に維持される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing ubiquity of AR/VR devices, the deployment of deep learning models on edge devices has become a critical challenge. These devices require real-time inference, low power consumption, and minimal latency. Many framework designers face the conundrum of balancing efficiency and performance. We design a light framework that adopts an encoder-decoder architecture and introduces several key contributions aimed at improving both efficiency and accuracy. We apply sparse convolution on a ResNet-18 backbone to exploit the inherent sparsity in hand pose images, achieving a 42% end-to-end efficiency improvement. Moreover, we propose our SPLite decoder. This new architecture significantly boosts the decoding process's frame rate by 3.1x on the Raspberry Pi 5, while maintaining accuracy on par. To further optimize performance, we apply quantization-aware training, reducing memory usage while preserving accuracy (PA-MPJPE increases only marginally from 9.0 mm to 9.1 mm on FreiHAND). Overall, our system achieves a 2.98x speed-up on a Raspberry Pi 5 CPU (BCM2712 quad-core Arm A76 processor). Our method is also evaluated on compound benchmark datasets, demonstrating comparable accuracy to state-of-the-art approaches while significantly enhancing computational efficiency.
- Abstract(参考訳): AR/VRデバイスの普及に伴い、エッジデバイスへのディープラーニングモデルのデプロイは重要な課題となっている。
これらのデバイスは、リアルタイム推論、低消費電力、最小レイテンシを必要とする。
多くのフレームワークデザイナは、効率とパフォーマンスのバランスをとるという難題に直面しています。
我々は,エンコーダ・デコーダアーキテクチャを採用した軽量なフレームワークを設計し,効率性と精度の向上を目的としたいくつかの重要なコントリビューションを紹介する。
本研究では,ResNet-18のバックボーンにスパース畳み込みを適用し,手ポーズ画像の空間性を利用して,エンドツーエンドの効率改善を42%達成する。
さらに,SPLiteデコーダを提案する。
このアーキテクチャにより、復号プロセスのフレームレートはRaspberry Pi 5の3.1倍向上し、精度は同等に維持される。
さらに性能を最適化するために、量子化学習を適用し、精度を保ちながらメモリ使用量を削減した(PA-MPJPEはFreiHANDでは9.0 mmから9.1 mmにしか増加しない)。
システム全体としては、Raspberry Pi 5 CPU(BCM2712クアッドコアArm A76プロセッサ)の2.98倍の高速化を実現している。
また, 計算効率を著しく向上しつつ, 最先端手法に匹敵する精度を示した。
関連論文リスト
- PocketSR: The Super-Resolution Expert in Your Pocket Mobiles [69.26751136689533]
リアルワールド・イメージ・スーパーレゾリューション (RealSR) は、携帯電話が捉えたような、Wild内の画像の視覚的品質を高めることを目的としている。
大規模な生成モデルを利用する既存の手法は印象的な結果を示しているが、計算コストとレイテンシが高いため、エッジ配置には実用的ではない。
超軽量単一ステップモデルであるPocketSRを導入し,高忠実度を維持しつつ生成モデリング機能をRealSRにもたらす。
論文 参考訳(メタデータ) (2025-10-03T13:56:18Z) - Decoder-Hybrid-Decoder Architecture for Efficient Reasoning with Long Generation [129.45368843861917]
我々は、レイヤ間の効率的なメモリ共有のためのシンプルで効果的なメカニズムであるGated Memory Unit(GMU)を紹介した。
これは、GMUを組み込んでSambaベースのセルフデコーダからメモリ読み出し状態を共有するデコーダ・ハイブリッド・デコーダアーキテクチャである。
論文 参考訳(メタデータ) (2025-07-09T07:27:00Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Accelerating Deep Learning Model Inference on Arm CPUs with Ultra-Low
Bit Quantization and Runtime [57.5143536744084]
ディープラーニングモデルの高性能化は、高い計算、ストレージ、電力要求を犠牲にしている。
我々はDeplite Neutrinoを導入し、DepliteはArmベースのプラットフォームに超低ビット量子化モデルを展開する。
論文 参考訳(メタデータ) (2022-07-18T15:05:17Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。