論文の概要: HumanCoser: Layered 3D Human Generation via Semantic-Aware Diffusion Model
- arxiv url: http://arxiv.org/abs/2408.11357v1
- Date: Wed, 21 Aug 2024 06:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 18:19:12.442831
- Title: HumanCoser: Layered 3D Human Generation via Semantic-Aware Diffusion Model
- Title(参考訳): HumanCoser:Semantic-Aware Diffusion Modelによる階層型3Dヒューマンジェネレーション
- Authors: Yi Wang, Jian Ma, Ruizhi Shao, Qiao Feng, Yu-kun Lai, Kun Li,
- Abstract要約: 本稿では,テキストプロンプトから物理的に階層化された3D人間を生成することを目的とする。
本稿では,物理的に分離された拡散モデルに基づく,新しい階層的な人間の表現法を提案する。
そこで本研究では,SMPLによる暗黙的フィールドネットワークを提案する。
- 参考スコア(独自算出の注目度): 43.66218796152962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to generate physically-layered 3D humans from text prompts. Existing methods either generate 3D clothed humans as a whole or support only tight and simple clothing generation, which limits their applications to virtual try-on and part-level editing. To achieve physically-layered 3D human generation with reusable and complex clothing, we propose a novel layer-wise dressed human representation based on a physically-decoupled diffusion model. Specifically, to achieve layer-wise clothing generation, we propose a dual-representation decoupling framework for generating clothing decoupled from the human body, in conjunction with an innovative multi-layer fusion volume rendering method. To match the clothing with different body shapes, we propose an SMPL-driven implicit field deformation network that enables the free transfer and reuse of clothing. Extensive experiments demonstrate that our approach not only achieves state-of-the-art layered 3D human generation with complex clothing but also supports virtual try-on and layered human animation.
- Abstract(参考訳): 本稿では,テキストプロンプトから物理的に階層化された3D人間を生成することを目的とする。
既存の方法は、全体として3Dの服を着た人間を生成するか、厳密でシンプルな衣服生成のみをサポートするかのいずれかで、仮想試着と部分レベルの編集に制限される。
そこで本研究では, 物理的に分離された拡散モデルに基づく, 実用的で複雑な衣服を用いて, 物理的に階層化された3次元人体生成を実現するために, 階層的に装身した新しい人体表現を提案する。
具体的には,人体から切り離された衣服を生成するための二重表現デカップリングフレームワークを,革新的な多層融合ボリュームレンダリング手法とともに提案する。
そこで本研究では,衣服の自由移動と再利用を可能にするSMPL方式の暗黙的フィールド変形ネットワークを提案する。
広汎な実験により、我々のアプローチは、複雑な衣服を持つ最先端の階層化された3次元人間世代を実現するだけでなく、仮想試着と階層化された人間のアニメーションもサポートすることが示された。
関連論文リスト
- TELA: Text to Layer-wise 3D Clothed Human Generation [27.93447899876341]
本稿では,テクスチャ記述による3次元衣料人文生成の課題について論じる。
本稿では,プログレッシブ最適化戦略と組み合わせて,レイヤワイドな人間の表現を提案する。
提案手法は,最先端の3D衣料人為的生成を実現するとともに,布の編集アプリケーションもサポートしている。
論文 参考訳(メタデータ) (2024-04-25T17:05:38Z) - Synthesizing Moving People with 3D Control [88.68284137105654]
対象とする3次元運動系列の単一画像から人物をアニメーションする拡散モデルに基づくフレームワークを提案する。
まず,1つの画像が与えられた人の見えない部分を幻覚させる拡散モデルについて学習する。
第2に,3次元人間のポーズによって制御される拡散に基づくレンダリングパイプラインを開発する。
論文 参考訳(メタデータ) (2024-01-19T18:59:11Z) - Layered 3D Human Generation via Semantic-Aware Diffusion Model [63.459666003261276]
本稿では,新しい意味認識拡散モデルに基づくテキスト駆動型3次元人文生成フレームワークを提案する。
生成した衣服を対象のテキストと整合性を保つために,衣服のセマンティック・信頼戦略を提案する。
そこで本研究では,SMPLによる暗黙的フィールド変形ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-10T07:34:43Z) - HumanLiff: Layer-wise 3D Human Generation with Diffusion Model [55.891036415316876]
既存の3D生成モデルは、主に1回のパスで、検出不能な3Dモデルとして、着物付き3D人間を生成する。
拡散過程を統一した第1層の3次元人間生成モデルであるHumanLiffを提案する。
論文 参考訳(メタデータ) (2023-08-18T17:59:04Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。