論文の概要: Step2Motion: Locomotion Reconstruction from Pressure Sensing Insoles
- arxiv url: http://arxiv.org/abs/2510.22712v1
- Date: Sun, 26 Oct 2025 15:12:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.991727
- Title: Step2Motion: Locomotion Reconstruction from Pressure Sensing Insoles
- Title(参考訳): Step2Motion:圧力センシングインゾルからのロコモーション再構成
- Authors: Jose Luis Ponton, Eduardo Alvarado, Lin Geng Foo, Nuria Pelechano, Carlos Andujar, Marc Habermann,
- Abstract要約: マルチモーダルインソールセンサから人間の移動を再構築する最初の方法であるStep2Motionを提案する。
本手法は, インソールによって得られた圧力・慣性データ加速と角速度を利用して, 人間の動きを復元する。
本手法の有効性を様々な実験で評価し, 多様な移動スタイルに対する汎用性を示す。
- 参考スコア(独自算出の注目度): 27.10671084209085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion is fundamentally driven by continuous physical interaction with the environment. Whether walking, running, or simply standing, the forces exchanged between our feet and the ground provide crucial insights for understanding and reconstructing human movement. Recent advances in wearable insole devices offer a compelling solution for capturing these forces in diverse, real-world scenarios. Sensor insoles pose no constraint on the users' motion (unlike mocap suits) and are unaffected by line-of-sight limitations (in contrast to optical systems). These qualities make sensor insoles an ideal choice for robust, unconstrained motion capture, particularly in outdoor environments. Surprisingly, leveraging these devices with recent motion reconstruction methods remains largely unexplored. Aiming to fill this gap, we present Step2Motion, the first approach to reconstruct human locomotion from multi-modal insole sensors. Our method utilizes pressure and inertial data-accelerations and angular rates-captured by the insoles to reconstruct human motion. We evaluate the effectiveness of our approach across a range of experiments to show its versatility for diverse locomotion styles, from simple ones like walking or jogging up to moving sideways, on tiptoes, slightly crouching, or dancing.
- Abstract(参考訳): 人間の動きは、基本的に環境との連続的な物理的相互作用によって駆動される。
歩いたり、走ったり、立ち上がったりして、足と地面の間で交わされた力は、人間の動きを理解し、再構築するための重要な洞察を与えてくれる。
ウェアラブルインソールデバイスの最近の進歩は、これらの力を多様な現実世界のシナリオで捉えるための魅力的なソリューションを提供する。
センサーのインソールはユーザーの動き(モキャップスーツと異なり)に制約がなく、(光学系とは対照的に)視線制限の影響を受けない。
これらの性質は、特に屋外環境では、頑丈で制約のないモーションキャプチャーに理想的な選択を与える。
驚くべきことに、これらのデバイスを最近のモーションリコンストラクション手法で活用することは、まだほとんど解明されていない。
このギャップを埋めるために、我々はマルチモーダル・インソールセンサーから人間の移動を再構築する最初のアプローチであるStep2Motionを提案する。
本手法は, インソールによって得られた圧力・慣性データ加速と角速度を利用して, 人間の動きを復元する。
歩行やジョギング,横方向の移動,つま先,少ししゃがみ,踊りなど,さまざまな移動スタイルに対する汎用性を示すため,さまざまな実験でアプローチの有効性を評価した。
関連論文リスト
- Humanoid Whole-Body Locomotion on Narrow Terrain via Dynamic Balance and Reinforcement Learning [54.26816599309778]
動的バランスと強化学習(RL)に基づく新しい全身移動アルゴリズムを提案する。
具体的には,ZMP(Zero-Moment Point)駆動の報酬とタスク駆動の報酬を,全身のアクター批判的枠組みで拡張した尺度を活用することで,動的バランス機構を導入する。
フルサイズのUnitree H1-2ロボットによる実験により、非常に狭い地形でのバランスを維持するための手法の有効性が検証された。
論文 参考訳(メタデータ) (2025-02-24T14:53:45Z) - Monkey See, Monkey Do: Harnessing Self-attention in Motion Diffusion for Zero-shot Motion Transfer [55.109778609058154]
既存の拡散に基づく運動編集法は、事前訓練されたモデルの重みに埋め込まれた前者の深いポテンシャルを見落としている。
動きパターンのキャプチャーと表現における注目要素の役割と相互作用を明らかにする。
我々はこれらの要素を統合して、従者のニュアンス特性を維持しつつ、従者へのリーダ動作の転送を行い、結果としてゼロショット動作の転送を実現した。
論文 参考訳(メタデータ) (2024-06-10T17:47:14Z) - DivaTrack: Diverse Bodies and Motions from Acceleration-Enhanced
Three-Point Trackers [13.258923087528354]
フルボディアバターの存在は、デジタルリアリティーにおける没入型社会と環境の相互作用に不可欠である。
現在のデバイスは、ヘッドセットと2つのコントローラーから3度の自由度(DOF)のポーズしか提供していない。
本研究では,多様な身体サイズや活動に適用した場合に,既存の手法よりも優れたディープラーニングフレームワークであるDivaTrackを提案する。
論文 参考訳(メタデータ) (2024-02-14T14:46:03Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。