論文の概要: Human Motion Estimation with Everyday Wearables
- arxiv url: http://arxiv.org/abs/2512.21209v1
- Date: Wed, 24 Dec 2025 14:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.801593
- Title: Human Motion Estimation with Everyday Wearables
- Title(参考訳): 毎日のウェアラブルによる人間の動作推定
- Authors: Siqi Zhu, Yixuan Li, Junfu Li, Qi Wu, Zan Wang, Haozhe Ma, Wei Liang,
- Abstract要約: EveryWearは、日常的なウェアラブルをベースとした、軽量で実用的な人間のモーションキャプチャーアプローチである。
我々はEgo-Elecを紹介した。Ego-Elecは実世界の9時間データセットで、17の屋内および屋外環境にわたる56の日々の活動をカバーしている。
このアプローチでは,エゴセントリックカメラからの視覚的手がかりと,コンシューマデバイスからの慣性信号を統合するマルチモーダルな教師学習フレームワークを採用している。
- 参考スコア(独自算出の注目度): 30.10082832231011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While on-body device-based human motion estimation is crucial for applications such as XR interaction, existing methods often suffer from poor wearability, expensive hardware, and cumbersome calibration, which hinder their adoption in daily life. To address these challenges, we present EveryWear, a lightweight and practical human motion capture approach based entirely on everyday wearables: a smartphone, smartwatch, earbuds, and smart glasses equipped with one forward-facing and two downward-facing cameras, requiring no explicit calibration before use. We introduce Ego-Elec, a 9-hour real-world dataset covering 56 daily activities across 17 diverse indoor and outdoor environments, with ground-truth 3D annotations provided by the motion capture (MoCap), to facilitate robust research and benchmarking in this direction. Our approach employs a multimodal teacher-student framework that integrates visual cues from egocentric cameras with inertial signals from consumer devices. By training directly on real-world data rather than synthetic data, our model effectively eliminates the sim-to-real gap that constrains prior work. Experiments demonstrate that our method outperforms baseline models, validating its effectiveness for practical full-body motion estimation.
- Abstract(参考訳): デバイス上での人体動作推定は、XRインタラクションのようなアプリケーションには不可欠であるが、既存の手法では、着用性の低さ、高価なハードウェア、面倒なキャリブレーションに悩まされ、日常生活における採用を妨げている。
これらの課題に対処するために、EveryWearは、スマートフォン、スマートウォッチ、イヤホン、スマートグラスなど、日常的なウェアラブルをベースとした軽量で実用的な人間のモーションキャプチャーアプローチである。
Ego-Elecは、屋内と屋外の17の多様な環境において、56の日々の活動をカバーし、モーションキャプチャー(MoCap)によって提供される地道な3Dアノテーションを用いて、この方向の堅牢な研究とベンチマークを容易にする。
このアプローチでは,エゴセントリックカメラからの視覚的手がかりと,コンシューマデバイスからの慣性信号を統合するマルチモーダルな教師学習フレームワークを採用している。
合成データではなく実世界のデータを直接トレーニングすることにより、我々のモデルは、先行作業に制約を課すsim-to-realギャップを効果的に排除する。
実験により,本手法はベースラインモデルより優れており,実際のフルボディ動作推定の有効性が検証された。
関連論文リスト
- ActiveUMI: Robotic Manipulation with Active Perception from Robot-Free Human Demonstrations [32.570602111692914]
複雑な双方向操作が可能なロボットに人体でのデモンストレーションを転送する,データ収集システムのためのフレームワークであるActiveUMIを提案する。
ActiveUMIは、ロボットのエンドエフェクターをミラーするセンサー付きコントローラーを備えたポータブルVR遠隔操作キットを結合する。
操作者の意図した頭部の動きをヘッドマウントディスプレイで記録することにより,視覚的注意と操作の関係を学習する。
論文 参考訳(メタデータ) (2025-10-02T02:44:21Z) - Recognizing Actions from Robotic View for Natural Human-Robot Interaction [52.00935005918032]
自然人-ロボットインタラクション(Natural Human-Robot Interaction, N-HRI)は、ロボット自身が動いているか静止しているかに関わらず、ロボットが様々な距離と状態で人間の行動を認識することを要求する。
N-HRIの既存のベンチマークは、限られたデータ、モダリティ、タスクカテゴリ、主題や環境の多様性のために、N-HRIのユニークな複雑さに対処できない。
モバイルサービスロボットで広く使われている知覚中心ロボットビューのための大規模データセット(Action from Robotic View)を紹介する。
論文 参考訳(メタデータ) (2025-07-30T09:48:34Z) - LiveHPS++: Robust and Coherent Motion Capture in Dynamic Free Environment [17.832694508927407]
単一LiDARシステムに基づく革新的で効果的なソリューションであるLiveHPS++を紹介する。
3つのモジュールを巧妙に設計し,人間の動作から動的・運動学的特徴を学習することができる。
提案手法は,様々なデータセットにまたがって既存の最先端手法を大幅に超えることが証明されている。
論文 参考訳(メタデータ) (2024-07-13T10:04:45Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Daily Physical Activity Monitoring -- Adaptive Learning from Multi-source Motion Sensor Data [17.604797095380114]
医療アプリケーションでは、手首のウェアラブルデバイスのような単一のソースからのデータを使用する機械学習モデルを開発する必要性が高まっている。
しかしながら、単一ソースデータを使用することの制限は、人間の活動の全範囲を捉えるのに失敗するため、モデルの精度を損なうことが多い。
実験室で収集したマルチソースデータを活用することにより,日常的なアプリケーションを対象とした機械学習モデルを最適化するトランスファー学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-26T01:08:28Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.33746404551343]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Practical Imitation Learning in the Real World via Task Consistency Loss [18.827979446629296]
本稿では,機能レベルと行動予測レベルの両方において,シミュレートと実際のアライメントを促進する自己監督的損失を提案する。
我々は、シミュレートとリアルで遠隔操作されたデモンストレーションを16.2時間しか使っていない10のシーンで80%の成功を達成した。
論文 参考訳(メタデータ) (2022-02-03T21:43:06Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。