論文の概要: DeClotH: Decomposable 3D Cloth and Human Body Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2503.19373v1
- Date: Tue, 25 Mar 2025 06:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:51:49.209177
- Title: DeClotH: Decomposable 3D Cloth and Human Body Reconstruction from a Single Image
- Title(参考訳): DeClotH:1枚の画像から分解可能な3D衣服と人体再構築
- Authors: Hyeongjin Nam, Donghwan Kim, Jeongtaek Oh, Kyoung Mu Lee,
- Abstract要約: 従来の3次元再構築法では、布と人体を区別することなく、単体として扱う方法がほとんどである。
1枚の画像から3D布と人体を別々に再構成するDeClotHを提案する。
- 参考スコア(独自算出の注目度): 49.69224401751216
- License:
- Abstract: Most existing methods of 3D clothed human reconstruction from a single image treat the clothed human as a single object without distinguishing between cloth and human body. In this regard, we present DeClotH, which separately reconstructs 3D cloth and human body from a single image. This task remains largely unexplored due to the extreme occlusion between cloth and the human body, making it challenging to infer accurate geometries and textures. Moreover, while recent 3D human reconstruction methods have achieved impressive results using text-to-image diffusion models, directly applying such an approach to this problem often leads to incorrect guidance, particularly in reconstructing 3D cloth. To address these challenges, we propose two core designs in our framework. First, to alleviate the occlusion issue, we leverage 3D template models of cloth and human body as regularizations, which provide strong geometric priors to prevent erroneous reconstruction by the occlusion. Second, we introduce a cloth diffusion model specifically designed to provide contextual information about cloth appearance, thereby enhancing the reconstruction of 3D cloth. Qualitative and quantitative experiments demonstrate that our proposed approach is highly effective in reconstructing both 3D cloth and the human body. More qualitative results are provided at https://hygenie1228.github.io/DeClotH/.
- Abstract(参考訳): 既成の3次元再構築法は, 単体・単体を区別することなく, 単体として扱う方法がほとんどである。
本稿では,1枚の画像から3D布と人体を別々に再構成するDeClotHについて述べる。
この作業は、布と人体の間に極端に介在しているため、正確なジオメトリーやテクスチャの推測が難しいため、ほとんど未解明のままである。
さらに,最近の3次元再構成手法は,テキスト・画像拡散モデルによる印象的な結果を得たが,このようなアプローチを直接適用することで,特に3次元布の再構築において,誤ったガイダンスが導かれることがしばしばある。
これらの課題に対処するため、我々はフレームワークに2つのコア設計を提案する。
まず, 咬合の問題を緩和するために, 布と人体の3次元テンプレートモデルを正則化として利用し, 咬合による誤再建を防止するために, 幾何的事前情報を提供する。
第2に,布の外観に関する文脈情報の提供を目的とした布の拡散モデルを導入することにより,3次元布の再構築が促進される。
定性的,定量的な実験により,提案手法は3次元布と人体の両方を再構成するのに極めて有効であることが示された。
より質的な結果はhttps://hygenie1228.github.io/DeClotH/で提供されている。
関連論文リスト
- GeneMAN: Generalizable Single-Image 3D Human Reconstruction from Multi-Source Human Data [61.05815629606135]
高忠実度3Dモデルを構築するのが難しい課題です。
GeneMANは高品質な人間のデータを総合的に収集する。
GeneMANは、単一の画像入力から高品質な3Dモデルを生成することができ、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-27T18:59:54Z) - Ultraman: Single Image 3D Human Reconstruction with Ultra Speed and Detail [11.604919466757003]
本研究では,1つの画像からテクスチャ化された3次元人間のモデルを高速に再構成するためのemphUltramanという手法を提案する。
emphUltramanは、高品質なテクスチャの詳細を保存しながら、再構築のスピードと精度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-18T17:57:30Z) - SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - TeCH: Text-guided Reconstruction of Lifelike Clothed Humans [35.68114652041377]
既存の方法は、ぼやけたテクスチャで非常に滑らかな裏面を生成することが多い。
基礎モデルの力に触発されて、TeCHは記述的テキストプロンプトを利用して3D人間を再構築する。
そこで本研究では,DMTetをベースとした3次元ハイブリッド表現を提案する。
論文 参考訳(メタデータ) (2023-08-16T17:59:13Z) - Chupa: Carving 3D Clothed Humans from Skinned Shape Priors using 2D
Diffusion Probabilistic Models [9.479195068754507]
拡散モデルを用いてリアルな人間のデジタルアバターを生成する3D生成パイプラインを提案する。
われわれの方法であるChupaは、知覚的品質とアイデンティティの多様性を向上したリアルな3D衣服を作成できる。
論文 参考訳(メタデータ) (2023-05-19T17:59:18Z) - DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via
Diffusion Models [55.71306021041785]
高品質な3Dアバターを作成するためのテキスト・アンド・シェイプ・ガイドフレームワークであるDreamAvatarについて紹介する。
SMPLモデルを利用して、生成のための形状とポーズのガイダンスを提供する。
また、全体とズームインした3Dヘッドから計算した損失を共同で最適化し、一般的なマルチフェイス「Janus」問題を緩和する。
論文 参考訳(メタデータ) (2023-04-03T12:11:51Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。