論文の概要: VersaPants: A Loose-Fitting Textile Capacitive Sensing System for Lower-Body Motion Capture
- arxiv url: http://arxiv.org/abs/2511.16346v1
- Date: Thu, 20 Nov 2025 13:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.642924
- Title: VersaPants: A Loose-Fitting Textile Capacitive Sensing System for Lower-Body Motion Capture
- Title(参考訳): VersaPants:低ボディーモーションキャプチャーのためのルースフィット型繊維容量センシングシステム
- Authors: Deniz Kasap, Taraneh Aminosharieh Najafi, Jérôme Paul Rémy Thevenot, Jonathan Dan, Stefano Albini, David Atienza,
- Abstract要約: We present VersaPants, a first loose-fitting, fabric-based capacitive sensor system for lower-body motion capture。
このシステムは、快適さを損なうことなく下半身のポーズを再構築する。
我々は、コンデンサ信号を関節角にマッピングする軽量なトランスフォーマーベースディープラーニングモデルを採用している。
- 参考スコア(独自算出の注目度): 3.4228651201337215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present VersaPants, the first loose-fitting, textile-based capacitive sensing system for lower-body motion capture, built on the open-hardware VersaSens platform. By integrating conductive textile patches and a compact acquisition unit into a pair of pants, the system reconstructs lower-body pose without compromising comfort. Unlike IMU-based systems that require user-specific fitting or camera-based methods that compromise privacy, our approach operates without fitting adjustments and preserves user privacy. VersaPants is a custom-designed smart garment featuring 6 capacitive channels per leg. We employ a lightweight Transformer-based deep learning model that maps capacitance signals to joint angles, enabling embedded implementation on edge platforms. To test our system, we collected approximately 3.7 hours of motion data from 11 participants performing 16 daily and exercise-based movements. The model achieves a mean per-joint position error (MPJPE) of 11.96 cm and a mean per-joint angle error (MPJAE) of 12.3 degrees across the hip, knee, and ankle joints, indicating the model's ability to generalize to unseen users and movements. A comparative analysis of existing textile-based deep learning architectures reveals that our model achieves competitive reconstruction performance with up to 22 times fewer parameters and 18 times fewer FLOPs, enabling real-time inference at 42 FPS on a commercial smartwatch without quantization. These results position VersaPants as a promising step toward scalable, comfortable, and embedded motion-capture solutions for fitness, healthcare, and wellbeing applications.
- Abstract(参考訳): We present VersaPants, a first loose-fitting, fabric-based capacitive sensor system for lower-body motion capture, built on the open-hardware VersaSens platform。
導電性織物パッチとコンパクトな取得ユニットを一対のパンツに統合することにより、快適さを損なうことなく下半身ポーズを再構築する。
プライバシを侵害するユーザ固有のフィッティングやカメラベースの方法を必要とするIMUベースのシステムとは異なり、当社のアプローチは調整を調整せずに動作し、ユーザのプライバシを保護します。
VersaPantsはカスタムデザインのスマートウェアで、脚に6つの容量のチャンネルがある。
エッジプラットフォーム上での組込み実装を実現するために,コンパシタンス信号をジョイントアングルにマッピングする軽量なTransformerベースのディープラーニングモデルを採用している。
当システムをテストするため,11名の被験者から1日16回,運動ベースで約3.7時間の運動データを収集した。
このモデルは、11.96cmの平均関節位置誤差(MPJPE)と、股関節、膝、足関節の12.3度の平均関節角度誤差(MPJAE)を達成し、このモデルが目に見えないユーザーや動きに一般化する能力を示している。
既存の織物をベースとしたディープラーニングアーキテクチャの比較分析により,我々のモデルは最大22倍のパラメータと18倍のFLOPで競合する再構成性能を達成し,定量化せずに42FPSのリアルタイム推論を可能にした。
これらの結果は、VersaPantsをフィットネス、ヘルスケア、幸福なアプリケーションのためのスケーラブルで快適で組み込みのモーションキャプチャーソリューションに向けた有望なステップと位置づけている。
関連論文リスト
- LSP-YOLO: A Lightweight Single-Stage Network for Sitting Posture Recognition on Embedded Devices [1.476945306033059]
LSP-YOLOは、組み込みエッジデバイス上での姿勢認識のための軽量なシングルステージネットワークである。
モデルトレーニングとテストのために、6つの姿勢カテゴリにわたる5000の画像を含むデータセットを構築した。
最小のトレーニングモデルであるLSP-YOLO-nは、わずか1.9MBのパーソナルコンピュータ(PC)で94.2%の精度と251FPSを達成した。
論文 参考訳(メタデータ) (2025-11-18T10:24:51Z) - StrikeWatch: Wrist-worn Gait Recognition with Compact Time-series Models on Low-power FPGAs [10.946464973530214]
歩行パターンが良くなると、特に専門家のフィードバックなしに怪我につながることがある。
Wrist-wornウェアラブルは、実用的で非侵襲的な代替手段を提供する。
本稿では,デバイス上でリアルタイム歩行認識を行う小型手首輪システムであるStrikeWatchを紹介する。
論文 参考訳(メタデータ) (2025-10-14T20:28:31Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - Personalization of Wearable Sensor-Based Joint Kinematic Estimation Using Computer Vision for Hip Exoskeleton Applications [0.0]
実時間関節キネマティック推定のためのコンピュータビジョンに基づくDL適応フレームワークを提案する。
このフレームワークは小さなデータセット(すなわち1-2歩行サイクル)しか必要とせず、プロのモーションキャプチャー設定に依存しない。
本フレームワークは, スマートフォンカメラ学習型DLモデルを用いて, 臨床における新規ユーザ間でのリアルタイム関節キネマティクスを推定し, ウェアラブルロボットへの応用の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-22T22:17:42Z) - A Wearable Gait Monitoring System for 17 Gait Parameters Based on Computer Vision [4.318964235548601]
このシステムは、片方の靴に取り付けられたステレオカメラを使って、反対側の靴のマーカーを追跡する。
靴のヒールに付着したFSR(Force Sensitive Resistor)と、カスタム設計のアルゴリズムを組み合わせることで、時間的歩行パラメータを測定する。
このシステムは費用対効果が高く、ユーザフレンドリで、実生活の計測に適している。
論文 参考訳(メタデータ) (2024-11-16T08:25:22Z) - Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance [87.19164603145056]
実験室レベルの資源をトラッキングするための大規模ViTモデルのパワーを明らかにする手法であるLoRATを提案する。
私たちの作業の本質は、推論レイテンシを追加することなく、モデルパラメータの小さなサブセットを微調整するテクニックであるLoRAを適用することです。
我々はPETRの適応のみに基づくアンカーフリーヘッドを設計し、計算オーバーヘッドを少なくして性能を向上する。
論文 参考訳(メタデータ) (2024-03-08T11:41:48Z) - ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce [57.876602177247534]
スマートフォンは、ユーザーが自分の身体の画像をキャプチャする便利な手段を提供する。
我々は、PointRendでSemantic FPNを単純化することで、新しいセグメンテーションモデルを作成する。
我々は、このモデルを、私たちのアプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整する。
論文 参考訳(メタデータ) (2023-04-15T11:06:32Z) - ViTPose++: Vision Transformer for Generic Body Pose Estimation [70.86760562151163]
様々な側面から身体ポーズ推定を行うため, プレーン・ビジョン・トランスフォーマーの驚くほど優れた特性を示す。
ViTPoseは、特徴をエンコードするエンコーダと、ボディキーポイントをデコードする軽量デコーダとして、平らで非階層的な視覚変換器を使用している。
実験により,大規模なViTPoseモデルの知識は,簡単な知識トークンによって簡単に小さなものに伝達できることが実証された。
論文 参考訳(メタデータ) (2022-12-07T12:33:28Z) - Memory-Efficient, Limb Position-Aware Hand Gesture Recognition using
Hyperdimensional Computing [0.0]
超次元計算モデルを用いて加速度計とEMG信号のセンサ融合を行う。
分類精度は最大93.34%,EMGのみで訓練したモデルを用いて17.79%向上した。
論文 参考訳(メタデータ) (2021-03-09T07:31:00Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。