論文の概要: Dynamic Multi-Person Mesh Recovery From Uncalibrated Multi-View Cameras
- arxiv url: http://arxiv.org/abs/2110.10355v1
- Date: Wed, 20 Oct 2021 03:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:07:03.747726
- Title: Dynamic Multi-Person Mesh Recovery From Uncalibrated Multi-View Cameras
- Title(参考訳): マルチビューカメラによるマルチパーソンメッシュのダイナミックリカバリ
- Authors: Buzhen Huang, Yuan Shu, Tianshu Zhang and Yangang Wang
- Abstract要約: 検出された人間の意味論の低周波・高周波ノイズを低減するために物理幾何学的整合性を導入する。
そこで, 外部カメラパラメータとコヒーレントな人間の動作を, わずかにノイズのある入力から同時に最適化する新しい潜伏運動法を提案する。
実験結果から,1段階の最適化により,正確なカメラパラメータと人間の動きが得られることがわかった。
- 参考スコア(独自算出の注目度): 11.225376081130849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic multi-person mesh recovery has been a hot topic in 3D vision
recently. However, few works focus on the multi-person motion capture from
uncalibrated cameras, which mainly faces two challenges: the one is that
inter-person interactions and occlusions introduce inherent ambiguities for
both camera calibration and motion capture; The other is that a lack of dense
correspondences can be used to constrain sparse camera geometries in a dynamic
multi-person scene. Our key idea is incorporating motion prior knowledge into
simultaneous optimization of extrinsic camera parameters and human meshes from
noisy human semantics. First, we introduce a physics-geometry consistency to
reduce the low and high frequency noises of the detected human semantics. Then
a novel latent motion prior is proposed to simultaneously optimize extrinsic
camera parameters and coherent human motions from slightly noisy inputs.
Experimental results show that accurate camera parameters and human motions can
be obtained through one-stage optimization. The codes will be publicly
available at~\url{https://www.yangangwang.com}.
- Abstract(参考訳): 動的マルチパーソンメッシュリカバリは、最近3Dビジョンにおいてホットな話題となっている。
一つは対人インタラクションとオクルージョンがカメラのキャリブレーションとモーションキャプチャの両方に固有のあいまいさをもたらすこと、もう一つは、ダイナミックなマルチパーソンシーンにおける疎カメラジオメトリを制限するために、密接な対応の欠如が使用できることである。
私たちのキーとなるアイデアは、ノイズの多い人間のセマンティクスから外部カメラパラメータと人間のメッシュの同時最適化に、モーション事前知識を取り入れることです。
まず, 検出された人間のセマンティクスの低周波ノイズと高周波ノイズを低減するため, 物理幾何学的一貫性を導入する。
そして, 若干のノイズ入力から, 外部カメラパラメータとコヒーレントな人間の動きを同時に最適化するために, 新たな潜在運動プリアーを提案する。
実験の結果,1段階最適化により正確なカメラパラメータと人間の動きが得られることがわかった。
コードは~\url{https://www.yangwang.com}で公開される。
関連論文リスト
- COIN: Control-Inpainting Diffusion Prior for Human and Camera Motion Estimation [98.05046790227561]
COINは、人間の動きとカメラの動きを細粒度に制御できる、コントロール・インパインティング・モーション拡散である。
COINは、グローバルな人間の動き推定とカメラの動き推定という観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-08-29T10:36:29Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - WHAC: World-grounded Humans and Cameras [37.877565981937586]
我々は,表現的パラメトリック人間モデル(SMPL-X)と対応するカメラのポーズを共同で再現することを目指している。
WHACと呼ばれる新しいフレームワークを導入し、世界規模で表現された人間のポーズと形状の推定を容易にする。
我々は、正確に注釈付けされた人間とカメラを含む新しい合成データセットWHAC-A-Moleを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:58:02Z) - PACE: Human and Camera Motion Estimation from in-the-wild Videos [113.76041632912577]
本研究では,移動カメラのグローバルシーンにおける人間の動きを推定する手法を提案する。
これは、ビデオ中の人間とカメラの動きが混ざり合っているため、非常に難しい作業である。
本研究では,人体とカメラの動作を前景の人体と背景の両方の特徴を用いてアンハングリングする共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-20T19:04:14Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。