論文の概要: BEDLAM2.0: Synthetic Humans and Cameras in Motion
- arxiv url: http://arxiv.org/abs/2511.14394v1
- Date: Tue, 18 Nov 2025 11:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.086331
- Title: BEDLAM2.0: Synthetic Humans and Cameras in Motion
- Title(参考訳): BEDLAM2.0: モーションの人間とカメラ
- Authors: Joachim Tesch, Giorgio Becherini, Prerana Achar, Anastasios Yiannakidis, Muhammed Kocabas, Priyanka Patel, Michael J. Black,
- Abstract要約: 人気の高いBEDLAMデータセットを超える新しいデータセットであるBEDLAM2.0を紹介します。
BEDLAM2.0は、身体の形、動き、衣服、髪、および3D環境の多様性と現実性を高める。
BEDLAM2.0は、特に世界座標における人間を推定する訓練方法において、非常に優れていることを示す。
- 参考スコア(独自算出の注目度): 43.58919835450038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring 3D human motion from video remains a challenging problem with many applications. While traditional methods estimate the human in image coordinates, many applications require human motion to be estimated in world coordinates. This is particularly challenging when there is both human and camera motion. Progress on this topic has been limited by the lack of rich video data with ground truth human and camera movement. We address this with BEDLAM2.0, a new dataset that goes beyond the popular BEDLAM dataset in important ways. In addition to introducing more diverse and realistic cameras and camera motions, BEDLAM2.0 increases diversity and realism of body shape, motions, clothing, hair, and 3D environments. Additionally, it adds shoes, which were missing in BEDLAM. BEDLAM has become a key resource for training 3D human pose and motion regressors today and we show that BEDLAM2.0 is significantly better, particularly for training methods that estimate humans in world coordinates. We compare state-of-the art methods trained on BEDLAM and BEDLAM2.0, and find that BEDLAM2.0 significantly improves accuracy over BEDLAM. For research purposes, we provide the rendered videos, ground truth body parameters, and camera motions. We also provide the 3D assets to which we have rights and links to those from third parties.
- Abstract(参考訳): ビデオから3Dの人間の動きを推定することは、多くのアプリケーションにとって難しい問題だ。
従来の手法では画像座標では人間の動きを推定するが、多くの応用では世界座標では人間の動きを推定する必要がある。
人間とカメラの両方の動きがある場合、これは特に難しい。
このトピックの進歩は、人間とカメラの動きによるリッチビデオデータの欠如によって制限されている。
BEDLAM2.0は、人気のあるBEDLAMデータセットを超える重要な方法で、新しいデータセットです。
BEDLAM2.0は、より多彩でリアルなカメラとカメラの動きを導入するだけでなく、身体の形、動き、衣服、髪、そして3D環境の多様性と現実性を高める。
また、BEDLAMに欠けていた靴も追加されている。
BEDLAMは3次元ポーズとモーションレグレッションのトレーニングにおいて重要なリソースとなり,特に世界座標における人間を推定するトレーニング手法において,BEDLAM2.0は極めて優れていることを示す。
BEDLAMとBEDLAM2.0をトレーニングした最先端技術と比較したところ,BEDLAM2.0はBEDLAMよりも精度が有意に向上することがわかった。
研究目的のために、レンダリングされたビデオ、地上の真実の身体パラメータ、カメラモーションを提供する。
また、第三者からの権利とリンクを持つ3Dアセットも提供します。
関連論文リスト
- HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - WHAM: Reconstructing World-grounded Humans with Accurate 3D Motion [43.95997922499137]
WHAM(World-grounded Humans with Accurate Motion)は、ビデオから世界座標系で3次元の人間の動きを再構成する。
SLAM法から推定されるカメラ角速度と人間の動きを用いて、身体のグローバルな軌跡を推定する。
複数のWildベンチマークで、既存の3Dモーションリカバリ手法よりも優れています。
論文 参考訳(メタデータ) (2023-12-12T18:57:46Z) - BEDLAM: A Synthetic Dataset of Bodies Exhibiting Detailed Lifelike
Animated Motion [52.11972919802401]
合成データのみに基づいてトレーニングされたニューラルネットワークは、実際の画像から3次元人間のポーズと形状推定の問題に対して最先端の精度が得られることを示す。
以前の合成データセットは小さく、非現実的で、現実的な衣服が欠けていた。
論文 参考訳(メタデータ) (2023-06-29T13:35:16Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。