論文の概要: GarmentDreamer: 3DGS Guided Garment Synthesis with Diverse Geometry and Texture Details
- arxiv url: http://arxiv.org/abs/2405.12420v1
- Date: Mon, 20 May 2024 23:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 14:38:05.110439
- Title: GarmentDreamer: 3DGS Guided Garment Synthesis with Diverse Geometry and Texture Details
- Title(参考訳): GarmentDreamer: 多様な幾何学とテクスチャを具備した3DGSガイド型ガーメント合成
- Authors: Boqian Li, Xuan Li, Ying Jiang, Tianyi Xie, Feng Gao, Huamin Wang, Yin Yang, Chenfanfu Jiang,
- Abstract要約: 伝統的な3D衣服の作成は、スケッチ、モデリング、紫外線マッピング、時間のかかるプロセスを含む労働集約型である。
本稿では,GarmentDreamerを提案する。GarmentDreamerは,テキストプロンプトから3D衣料を生成するためのガイダンスとして,3Dガウススプラッティング(GS)を利用する新しい手法である。
- 参考スコア(独自算出の注目度): 31.92583566128599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional 3D garment creation is labor-intensive, involving sketching, modeling, UV mapping, and texturing, which are time-consuming and costly. Recent advances in diffusion-based generative models have enabled new possibilities for 3D garment generation from text prompts, images, and videos. However, existing methods either suffer from inconsistencies among multi-view images or require additional processes to separate cloth from the underlying human model. In this paper, we propose GarmentDreamer, a novel method that leverages 3D Gaussian Splatting (GS) as guidance to generate wearable, simulation-ready 3D garment meshes from text prompts. In contrast to using multi-view images directly predicted by generative models as guidance, our 3DGS guidance ensures consistent optimization in both garment deformation and texture synthesis. Our method introduces a novel garment augmentation module, guided by normal and RGBA information, and employs implicit Neural Texture Fields (NeTF) combined with Score Distillation Sampling (SDS) to generate diverse geometric and texture details. We validate the effectiveness of our approach through comprehensive qualitative and quantitative experiments, showcasing the superior performance of GarmentDreamer over state-of-the-art alternatives. Our project page is available at: https://xuan-li.github.io/GarmentDreamerDemo/.
- Abstract(参考訳): 伝統的な3D衣料は、スケッチ、モデリング、紫外線マッピング、テクスチャなど、時間と費用がかかる労働集約型である。
拡散に基づく生成モデルの最近の進歩は、テキストプロンプト、画像、ビデオから3D衣服を生成する新しい可能性を可能にしている。
しかし、既存の方法は多視点画像の不整合に悩まされるか、下層の人間モデルから布を分離するために追加のプロセスを必要とする。
本稿では,GarmentDreamerを提案する。GarmentDreamerは3Dガウス・スプレイティング(GS)を利用して,テキストプロンプトからウェアラブルでシミュレーション可能な3D衣料メッシュを生成する手法である。
生成モデルによって直接予測されるマルチビュー画像をガイダンスとして使用するのとは対照的に、3DGSのガイダンスは、衣服の変形とテクスチャ合成の両方において一貫した最適化を保証する。
本手法では,通常およびRGBA情報によってガイドされる新しい衣服拡張モジュールを導入し,暗黙のニューラルネットワーク場(NeTF)とスコア蒸留サンプリング(SDS)を組み合わせて,多様な幾何学的・テクスチャ的詳細を生成する。
我々は,GarmentDreamerの最先端技術よりも優れた性能を示す総合的質的,定量的実験により,本手法の有効性を検証した。
私たちのプロジェクトページは、https://xuan-li.github.io/GarmentDreamerDemo/.com/で利用可能です。
関連論文リスト
- ClotheDreamer: Text-Guided Garment Generation with 3D Gaussians [13.196912161879936]
ClotheDreamerは、テキストプロンプトから、ウェアラブルで生産可能な3D衣服の資産を生成する方法だ。
本稿では,Distangled Clothe Gaussian Splatting (DCGS)を提案する。
論文 参考訳(メタデータ) (2024-06-24T17:25:39Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - RealmDreamer: Text-Driven 3D Scene Generation with Inpainting and Depth Diffusion [39.03289977892935]
RealmDreamerはテキスト記述から一般的な前方向きの3Dシーンを生成する技術である。
我々の技術はビデオやマルチビューのデータを必要とせず、様々なスタイルの高品質な3Dシーンを合成することができる。
論文 参考訳(メタデータ) (2024-04-10T17:57:41Z) - Garment3DGen: 3D Garment Stylization and Texture Generation [11.836357439129301]
Garment3DGenは、単一の入力イメージをガイダンスとして与えられたベースメッシュから3Dの衣服資産を合成する新しい方法である。
画像から3Dへの拡散手法の最近の進歩を生かして, 3次元の衣服測地を創出する。
我々は、グローバルかつ局所的に一貫した高忠実なテクスチャマップを生成し、入力ガイダンスを忠実にキャプチャする。
論文 参考訳(メタデータ) (2024-03-27T17:59:33Z) - WordRobe: Text-Guided Generation of Textured 3D Garments [30.614451083408266]
WordRobeは、ユーザフレンドリーなテキストプロンプトから非ポーズでテクスチャ化された3Dメッシュを生成するための新しいフレームワークである。
本研究では,3次元衣服空間の学習,衣服合成,テクスチャ合成において,現在のSOTAよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-26T09:44:34Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。