論文の概要: DressCode: Autoregressively Sewing and Generating Garments from Text
Guidance
- arxiv url: http://arxiv.org/abs/2401.16465v1
- Date: Mon, 29 Jan 2024 16:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 17:28:27.202176
- Title: DressCode: Autoregressively Sewing and Generating Garments from Text
Guidance
- Title(参考訳): DressCode: テキストガイダンスからガーメントの自動縫製と生成
- Authors: Kai He, Kaixin Yao, Qixuan Zhang, Jingyi Yu, Lingjie Liu, Lan Xu
- Abstract要約: 初心者向けデザインの民主化を目的とした,テキスト駆動型3D衣料生成フレームワークDressCodeを紹介した。
筆者らはまず,テキストコンディショニングとクロスアテンションを統合したGPTアーキテクチャであるSewingGPTを紹介した。
大規模言語モデルを活用することにより,本フレームワークは自然言語インタラクションによりCGフレンドリーな衣服を生成する。
- 参考スコア(独自算出の注目度): 65.14645319768367
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Apparel's significant role in human appearance underscores the importance of
garment digitalization for digital human creation. Recent advances in 3D
content creation are pivotal for digital human creation. Nonetheless, garment
generation from text guidance is still nascent. We introduce a text-driven 3D
garment generation framework, DressCode, which aims to democratize design for
novices and offer immense potential in fashion design, virtual try-on, and
digital human creation. For our framework, we first introduce SewingGPT, a
GPT-based architecture integrating cross-attention with text-conditioned
embedding to generate sewing patterns with text guidance. We also tailored a
pre-trained Stable Diffusion for high-quality, tile-based PBR texture
generation. By leveraging a large language model, our framework generates
CG-friendly garments through natural language interaction. Our method also
facilitates pattern completion and texture editing, simplifying the process for
designers by user-friendly interaction. With comprehensive evaluations and
comparisons with other state-of-the-art methods, our method showcases the best
quality and alignment with input prompts. User studies further validate our
high-quality rendering results, highlighting its practical utility and
potential in production settings.
- Abstract(参考訳): アパレルの人間の外観における重要な役割は、デジタル人間の創造における衣服のデジタル化の重要性を強調している。
近年の3Dコンテンツ制作の進歩は、デジタル人間の創造にとって重要な要素である。
それでも、テキストガイダンスによる衣服生成はまだ初期段階にある。
これは初心者向けにデザインを民主化し、ファッションデザイン、仮想試着、デジタル人間の創造に多大な可能性をもたらすことを目的としています。
我々はまず,テキストコンディション埋め込みとクロスアテンションを統合したgptベースのアーキテクチャであるmisinggptを導入し,テキスト指導によるミシンパターンを生成する。
また,高品質なタイルベースのPBRテクスチャ生成のために,事前訓練した安定拡散を調整した。
大規模言語モデルを活用することにより,本フレームワークは自然言語インタラクションによりCGフレンドリーな衣服を生成する。
また,パターン補完やテクスチャ編集が容易になり,ユーザフレンドリーなインタラクションによる設計プロセスが簡素化される。
総合的な評価と他の最先端手法との比較により,提案手法は入力プロンプトと最高の品質とアラインメントを示す。
ユーザスタディは高品質なレンダリング結果をさらに検証し、実運用環境での実用性と可能性を強調します。
関連論文リスト
- TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - Generating Faithful Text From a Knowledge Graph with Noisy Reference
Text [26.6775578332187]
与えられたグラフから忠実な自然言語テキストを生成することができるKG-to-text生成モデルを開発した。
まず、コントラスト学習を利用して、テキスト内の忠実な情報と幻覚的な情報を区別するモデルの能力を強化する。
第2に、制御可能なテキスト生成技術を用いて、デコーダに生成したテキストの幻覚レベルを制御する権限を与える。
論文 参考訳(メタデータ) (2023-08-12T07:12:45Z) - LayoutGPT: Compositional Visual Planning and Generation with Large
Language Models [98.81962282674151]
大規模言語モデル(LLM)は、テキスト条件からレイアウトを生成することで視覚的なプランナーとして機能する。
本稿では,スタイルシート言語におけるコンテキスト内視覚的デモンストレーションを構成する手法であるLayoutGPTを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:56:16Z) - Text-guided 3D Human Generation from 2D Collections [69.04031635550294]
本稿では,テクスト誘導型3Dヒューマンジェネレーション(texttT3H)について紹介する。
CCHは、抽出されたファッションセマンティクスを用いたヒューズ合成ヒトのレンダリングに、クロスモーダルアテンションを採用する。
我々はDeepFashionとSHHQで、上着と下着の形状、生地、色を多彩なファッション特性で評価する。
論文 参考訳(メタデータ) (2023-05-23T17:50:15Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。