論文の概要: Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs
- arxiv url: http://arxiv.org/abs/2203.15720v1
- Date: Tue, 29 Mar 2022 16:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 16:32:37.313044
- Title: Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs
- Title(参考訳): Transformer Inertial Poser: スパースIMUからの注意に基づくリアルタイム人体動作再構成
- Authors: Yifeng Jiang, Yuting Ye, Deepak Gopinath, Jungdam Won, Alexander W.
Winkler, C. Karen Liu
- Abstract要約: 本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
- 参考スコア(独自算出の注目度): 79.72586714047199
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Real-time human motion reconstruction from a sparse set of wearable IMUs
provides an non-intrusive and economic approach to motion capture. Without the
ability to acquire absolute position information using IMUs, many prior works
took data-driven approaches that utilize large human motion datasets to tackle
the under-determined nature of the problem. Still, challenges such as temporal
consistency, global translation estimation, and diverse coverage of motion or
terrain types remain. Inspired by recent success of Transformer models in
sequence modeling, we propose an attention-based deep learning method to
reconstruct full-body motion from six IMU sensors in real-time. Together with a
physics-based learning objective to predict "stationary body points", our
method achieves new state-of-the-art results both quantitatively and
qualitatively, while being simple to implement and smaller in size. We evaluate
our method extensively on synthesized and real IMU data, and with real-time
live demos.
- Abstract(参考訳): まばらなウェアラブルimusからリアルタイムの人間の動きの再構築は、意図せず経済的なモーションキャプチャーのアプローチを提供する。
IMUを使って絶対位置情報を取得する能力がないため、多くの先行研究は、大きな人間の動作データセットを使用して、問題の未決定の性質に対処するデータ駆動アプローチを採った。
それでも、時間的一貫性、グローバル翻訳推定、動きや地形の多様さといった課題は残っている。
近年のシークエンスモデリングにおけるTransformerモデルの成功に触発されて,6つのIMUセンサからの全身動作をリアルタイムに再構築する注目型ディープラーニング手法を提案する。
本手法は,「静止体点」を予測するための物理ベースの学習目標と相まって,実装が簡単でサイズが小さく,定量的かつ定性的に新しい結果が得られる。
提案手法は,IMUデータと実データと,実時間ライブデモを用いて広範に評価する。
関連論文リスト
- A Data-driven Crowd Simulation Framework Integrating Physics-informed Machine Learning with Navigation Potential Fields [15.429885272765363]
本研究では,物理インフォームド・機械学習(PIML)とナビゲーションポテンシャル場を統合した,新しいデータ駆動クラウドシミュレーションフレームワークを提案する。
具体的には,革新的な物理インフォームドS時間グラフ畳み込みネットワーク(PI-STGCN)を,歩行者の移動傾向を予測するデータ駆動モジュールとして設計する。
本フレームワークでは,PI-STGCNにより予測される移動傾向に基づいて,ナビゲーション電位場を動的に計算し,更新する。
論文 参考訳(メタデータ) (2024-10-21T15:56:17Z) - Masked Video and Body-worn IMU Autoencoder for Egocentric Action Recognition [24.217068565936117]
本稿では,身近なIMUの動作データをエゴセントリックなビデオと統合する行動認識手法を提案する。
体全体に配置された複数のIMUデバイスの複雑な関係をモデル化するために、複数のIMUデバイスにおける協調力学を利用する。
実験により,提案手法は複数の公開データセット上で最先端の性能を実現することができることが示された。
論文 参考訳(メタデータ) (2024-07-09T07:53:16Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Spatial-Related Sensors Matters: 3D Human Motion Reconstruction Assisted
with Textual Semantics [4.9493039356268875]
運動再建のためのウェアラブルデバイスを活用することは、経済的かつ実行可能な技術として現れている。
本稿では,複数のセンサの空間的重要性について考察する。
テキスト管理では, 座位や立位などの不明瞭な動作を区別するだけでなく, より正確で自然な動きを生じさせる。
論文 参考訳(メタデータ) (2023-12-27T04:21:45Z) - SparsePoser: Real-time Full-body Motion Reconstruction from Sparse Data [1.494051815405093]
SparsePoserは、スパースデータから全身のポーズを再構築するための、新しいディープラーニングベースのソリューションである。
このシステムには、高品質な連続した人間のポーズを合成する畳み込み型オートエンコーダが組み込まれている。
本手法は,IMUセンサや6-DoFトラッキングデバイスを用いた最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T18:48:01Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Motion Prediction via Joint Dependency Modeling in Phase Space [40.54430409142653]
我々は、運動解剖学の明示的な事前知識を活用するために、新しい畳み込みニューラルモデルを導入する。
次に,個々の関節機能間の暗黙的関係を学習するグローバル最適化モジュールを提案する。
本手法は,大規模な3次元人体動作ベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2022-01-07T08:30:01Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。