論文の概要: AddBiomechanics Dataset: Capturing the Physics of Human Motion at Scale
- arxiv url: http://arxiv.org/abs/2406.18537v1
- Date: Thu, 16 May 2024 16:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 06:12:00.622142
- Title: AddBiomechanics Dataset: Capturing the Physics of Human Motion at Scale
- Title(参考訳): AddBiomechanics dataset: Capturing the Physics of Human Motion at Scale
- Authors: Keenon Werling, Janelle Kaneda, Alan Tan, Rishi Agarwal, Six Skov, Tom Van Wouwe, Scott Uhlrich, Nicholas Bianco, Carmichael Ong, Antoine Falisse, Shardul Sapkota, Aidan Chandra, Joshua Carter, Ezio Preatoni, Benjamin Fregly, Jennifer Hicks, Scott Delp, C. Karen Liu,
- Abstract要約: 本稿では,273名の被験者の身体的正確性を含むAddBiomechanics dataset 1.0を提案する。
本稿では,このデータセットを用いて動きから人体力学を推定するベンチマークを提案し,いくつかのベースライン結果を示す。
- 参考スコア(独自算出の注目度): 6.704034895950097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While reconstructing human poses in 3D from inexpensive sensors has advanced significantly in recent years, quantifying the dynamics of human motion, including the muscle-generated joint torques and external forces, remains a challenge. Prior attempts to estimate physics from reconstructed human poses have been hampered by a lack of datasets with high-quality pose and force data for a variety of movements. We present the AddBiomechanics Dataset 1.0, which includes physically accurate human dynamics of 273 human subjects, over 70 hours of motion and force plate data, totaling more than 24 million frames. To construct this dataset, novel analytical methods were required, which are also reported here. We propose a benchmark for estimating human dynamics from motion using this dataset, and present several baseline results. The AddBiomechanics Dataset is publicly available at https://addbiomechanics.org/download_data.html.
- Abstract(参考訳): 近年、安価なセンサーから3Dの人間のポーズを復元する手法は大幅に進歩しているが、筋肉が生成する関節トルクや外力を含む人間の動きのダイナミクスを定量化することは依然として困難である。
復元された人間のポーズから物理学を推定する以前の試みは、高品質なポーズとさまざまな動きのための強制データを備えたデータセットの欠如によって妨げられている。
今回提案するAddBiomechanics Dataset 1.0は,273人の被験者の身体的正確性,70時間以上の運動および力板データ,合計2400万フレーム以上を含む。
このデータセットを構築するには、新しい分析手法が必要であり、ここでも報告されている。
本稿では,このデータセットを用いて動きから人体力学を推定するベンチマークを提案し,いくつかのベースライン結果を示す。
AddBiomechanics Datasetはhttps://addbiomechanics.org/download_data.htmlで公開されている。
関連論文リスト
- Measuring Physical Plausibility of 3D Human Poses Using Physics Simulation [19.26289173517333]
本研究では,任意の3次元姿勢推定モデルから予測された3次元ポーズの物理的妥当性と安定性を捉えるための2つの指標を提案する。
物理シミュレーションを用いて,既存の可視性測定値との相関と運動時の安定性の測定を行う。
論文 参考訳(メタデータ) (2025-02-06T20:15:49Z) - Muscles in Time: Learning to Understand Human Motion by Simulating Muscle Activations [64.98299559470503]
マッスル・イン・タイム (MinT) は、大規模な人工筋肉活性化データセットである。
227名の被験者と402名の模擬筋骨格をカバーする9時間以上のシミュレーションデータを含んでいる。
ヒトのポーズ配列からニューラルネットワークを用いた筋活動量推定の結果を示す。
論文 参考訳(メタデータ) (2024-10-31T18:28:53Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - OmniMotionGPT: Animal Motion Generation with Limited Data [70.35662376853163]
最初のテキストアニマルモーションデータセットであるAnimalML3Dを紹介した。
我々は,動物データに基づくヒトの動き生成ベースラインのトレーニング結果よりも定量的かつ質的に,高い多様性と忠実さで動物の動きを生成することができる。
論文 参考訳(メタデータ) (2023-11-30T07:14:00Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。