論文の概要: D$^3$-Human: Dynamic Disentangled Digital Human from Monocular Video
- arxiv url: http://arxiv.org/abs/2501.01589v1
- Date: Fri, 03 Jan 2025 00:58:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:06.281387
- Title: D$^3$-Human: Dynamic Disentangled Digital Human from Monocular Video
- Title(参考訳): D$^3$-Human: モノクロビデオによる動的遠方角デジタル人間
- Authors: Honghu Chen, Bo Peng, Yunfan Tao, Juyong Zhang,
- Abstract要約: D$3$-Humanは、モノクロビデオから動的不整形デジタルヒューマン幾何を再構成する手法である。
本研究では, 可視領域をSDFとして再構成し, 可視衣服と可視体を分割し, 可視体と可視体をマージする新規な人体距離場(hmSDF)を提案する。
- 参考スコア(独自算出の注目度): 26.879355799115743
- License:
- Abstract: We introduce D$^3$-Human, a method for reconstructing Dynamic Disentangled Digital Human geometry from monocular videos. Past monocular video human reconstruction primarily focuses on reconstructing undecoupled clothed human bodies or only reconstructing clothing, making it difficult to apply directly in applications such as animation production. The challenge in reconstructing decoupled clothing and body lies in the occlusion caused by clothing over the body. To this end, the details of the visible area and the plausibility of the invisible area must be ensured during the reconstruction process. Our proposed method combines explicit and implicit representations to model the decoupled clothed human body, leveraging the robustness of explicit representations and the flexibility of implicit representations. Specifically, we reconstruct the visible region as SDF and propose a novel human manifold signed distance field (hmSDF) to segment the visible clothing and visible body, and then merge the visible and invisible body. Extensive experimental results demonstrate that, compared with existing reconstruction schemes, D$^3$-Human can achieve high-quality decoupled reconstruction of the human body wearing different clothing, and can be directly applied to clothing transfer and animation.
- Abstract(参考訳): D$^3$-Humanはモノクロビデオから動的不整形デジタルヒューマン幾何を再構成する手法である。
過去のモノクロビデオによる人間の再構築は、主に未結合の人間の身体の再構築や衣服の再構築に焦点を合わせており、アニメーション制作などのアプリケーションに直接適用することは困難である。
分離した衣服や体を再構築する際の課題は、体上の衣服によって引き起こされる閉塞にある。
この目的のためには、再建過程で可視領域の詳細と可視領域の可視性を確保する必要がある。
提案手法は,明暗表現と暗黙表現を組み合わせることで,明暗表現の頑健さと暗黙表現の柔軟性を活用する。
具体的には, 可視領域をSDFとして再構成し, 可視衣服と可視体を分割し, 可視体と可視体をマージする新規な人体距離場(hmSDF)を提案する。
大規模な実験の結果,D$3$-Humanは既存の再建方式と比較して,異なる衣服を身に着けた身体の高品質な疎結合化を達成でき,衣服の移動やアニメーションに直接適用できることがわかった。
関連論文リスト
- WonderHuman: Hallucinating Unseen Parts in Dynamic 3D Human Reconstruction [51.22641018932625]
我々はWonderHumanをモノクラービデオから再構成し、高忠実なノベルビューの合成を行う。
提案手法は,与えられたモノクロ映像からフォトリアリスティックなレンダリングを生成する場合のSOTA性能を実現する。
論文 参考訳(メタデータ) (2025-02-03T04:43:41Z) - DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - ReLoo: Reconstructing Humans Dressed in Loose Garments from Monocular Video in the Wild [33.7726643918619]
ReLooは、モノラルなインザワイルドビデオから、ゆるい服を着た人間の高品質な3Dモデルを再構築する。
まず、布を被った人間を神経内装と外装に分解する層状神経人間表現を構築した。
グローバルな最適化は、多層異なるボリュームレンダリングにより、人体と衣服の形状、外観、変形を共同で最適化する。
論文 参考訳(メタデータ) (2024-09-23T17:58:39Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - DLCA-Recon: Dynamic Loose Clothing Avatar Reconstruction from Monocular
Videos [15.449755248457457]
本研究では,モノクロビデオからヒトアバターを作成するDLCA-Recon法を提案する。
ゆるい服から下半身までの距離は、人間が自由に動き、行動するとき、フレームごとに急速に変化する。
本手法は,SOTA法と比較して,衣服がゆるい人間に対して優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-19T12:19:20Z) - Reconstructing 3D Human Pose from RGB-D Data with Occlusions [11.677978425905096]
本稿では,RGB-D画像から3次元人体をオクルージョンで再構成する手法を提案する。
そこで本研究では,シーン情報と事前知識に基づいて,意味的かつ物理的に妥当な人体を再構築し,解決空間を縮小することを提案する。
提案手法は, ProXデータセットを用いて実験を行い, 提案手法が他の手法と比較して精度が高く, 妥当な結果が得られることを示した。
論文 参考訳(メタデータ) (2023-10-02T14:16:13Z) - Probabilistic Human Mesh Recovery in 3D Scenes from Egocentric Views [32.940614931864154]
身体のポーズ分布をモデル化するシーン条件拡散法を提案する。
この方法は、可塑性ヒトとシーンの相互作用において体を生成する。
目に見える関節の精度と、目に見えない身体の部分の多様性に優れる。
論文 参考訳(メタデータ) (2023-04-12T17:58:57Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Deep Physics-aware Inference of Cloth Deformation for Monocular Human
Performance Capture [84.73946704272113]
物理をトレーニングプロセスに統合することで、学習した布の変形が改善し、衣服を別の幾何学的要素としてモデル化できることを示す。
提案手法は現在の最先端手法よりも大幅に改善され,人間の衣服の変形面全体に対する現実的なモノクロキャプチャに向けた明確なステップとなる。
論文 参考訳(メタデータ) (2020-11-25T16:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。