論文の概要: Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual
Try-On
- arxiv url: http://arxiv.org/abs/2308.04288v1
- Date: Tue, 8 Aug 2023 14:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:36:14.142131
- Title: Cloth2Tex: A Customized Cloth Texture Generation Pipeline for 3D Virtual
Try-On
- Title(参考訳): Cloth2Tex: 3D仮想トライオンのためのカスタマイズされた布地テクスチャ生成パイプライン
- Authors: Daiheng Gao, Xu Chen, Xindi Zhang, Qi Wang, Ke Sun, Bang Zhang,
Liefeng Bo, Qixing Huang
- Abstract要約: Cloth2Texは、合理的なレイアウトと構造整合性を備えたテクスチャマップを生成する自己教師型手法である。
高忠実なテクスチャ塗布をサポートするために使用できる。
本手法は質的かつ定量的に評価し,Chroth2Texが高品質なテクスチャマップを作成可能であることを示す。
- 参考スコア(独自算出の注目度): 47.4550741942217
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fabricating and designing 3D garments has become extremely demanding with the
increasing need for synthesizing realistic dressed persons for a variety of
applications, e.g. 3D virtual try-on, digitalization of 2D clothes into 3D
apparel, and cloth animation. It thus necessitates a simple and straightforward
pipeline to obtain high-quality texture from simple input, such as 2D reference
images. Since traditional warping-based texture generation methods require a
significant number of control points to be manually selected for each type of
garment, which can be a time-consuming and tedious process. We propose a novel
method, called Cloth2Tex, which eliminates the human burden in this process.
Cloth2Tex is a self-supervised method that generates texture maps with
reasonable layout and structural consistency. Another key feature of Cloth2Tex
is that it can be used to support high-fidelity texture inpainting. This is
done by combining Cloth2Tex with a prevailing latent diffusion model. We
evaluate our approach both qualitatively and quantitatively and demonstrate
that Cloth2Tex can generate high-quality texture maps and achieve the best
visual effects in comparison to other methods. Project page:
tomguluson92.github.io/projects/cloth2tex/
- Abstract(参考訳): 3D服の製作とデザインは、3D仮想試着、2D服の3Dアパレルへのデジタル化、布のアニメーションなど、様々な用途でリアルな服装を合成する必要性が高まるにつれて、非常に要求されるようになった。
そのため、2d参照画像などの単純な入力から高品質なテクスチャを得るために、シンプルで簡単なパイプラインが必要となる。
伝統的なワーピングベースのテクスチャ生成法では、各タイプの衣服に手動で選択するかなりの数の制御ポイントが必要であるため、時間と手間がかかる。
本稿では,この過程における人的負担をなくす新しい方法である cloth2tex を提案する。
Cloth2Texは、合理的なレイアウトと構造整合性を持つテクスチャマップを生成する自己教師方式である。
Cloth2Texのもうひとつの重要な特徴は、高忠実なテクスチャインペイントをサポートするために使用できることだ。
これはClos2Texと一般的な潜在拡散モデルを組み合わせることで実現される。
提案手法は質的かつ定量的に評価し,Clos2Texが高品質なテクスチャマップを生成でき,他の手法と比較して最高の視覚効果が得られることを示した。
プロジェクトページ:tomguluson92.github.io/projects/cloth2tex/
関連論文リスト
- EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - WordRobe: Text-Guided Generation of Textured 3D Garments [30.614451083408266]
WordRobeは、ユーザフレンドリーなテキストプロンプトから非ポーズでテクスチャ化された3Dメッシュを生成するための新しいフレームワークである。
本研究では,3次元衣服空間の学習,衣服合成,テクスチャ合成において,現在のSOTAよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-26T09:44:34Z) - DI-Net : Decomposed Implicit Garment Transfer Network for Digital
Clothed 3D Human [75.45488434002898]
既存の2D仮想試行法は、各ピクセルの深さを知覚できないため、直接3Dに拡張することはできない。
本稿では,新たに試みられた3次元メッシュをシームレスに再構築可能な,分解型インプリシト衣服転送ネットワーク(DI-Net)を提案する。
論文 参考訳(メタデータ) (2023-11-28T14:28:41Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - TeCH: Text-guided Reconstruction of Lifelike Clothed Humans [35.68114652041377]
既存の方法は、ぼやけたテクスチャで非常に滑らかな裏面を生成することが多い。
基礎モデルの力に触発されて、TeCHは記述的テキストプロンプトを利用して3D人間を再構築する。
そこで本研究では,DMTetをベースとした3次元ハイブリッド表現を提案する。
論文 参考訳(メタデータ) (2023-08-16T17:59:13Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。