論文の概要: GarmentDiffusion: 3D Garment Sewing Pattern Generation with Multimodal Diffusion Transformers
- arxiv url: http://arxiv.org/abs/2504.21476v1
- Date: Wed, 30 Apr 2025 09:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 19:25:09.835614
- Title: GarmentDiffusion: 3D Garment Sewing Pattern Generation with Multimodal Diffusion Transformers
- Title(参考訳): ガーメント拡散:多モード拡散変換器を用いた3次元ガーメント縫製パターン生成
- Authors: Xinyu Li, Qi Yao, Yuanda Wang,
- Abstract要約: 縫製パターンの生成モデリングは 多様化した衣服を作るのに 不可欠です
textbftextitGarmentDiffusionは、センチメートル精度でベクトル化された3次元縫製パターンを生成できる新しい生成モデルである。
- 参考スコア(独自算出の注目度): 9.228577662928673
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Garment sewing patterns are fundamental design elements that bridge the gap between design concepts and practical manufacturing. The generative modeling of sewing patterns is crucial for creating diversified garments. However, existing approaches are limited either by reliance on a single input modality or by suboptimal generation efficiency. In this work, we present \textbf{\textit{GarmentDiffusion}}, a new generative model capable of producing centimeter-precise, vectorized 3D sewing patterns from multimodal inputs (text, image, and incomplete sewing pattern). Our method efficiently encodes 3D sewing pattern parameters into compact edge token representations, achieving a sequence length that is $\textbf{10}\times$ shorter than that of the autoregressive SewingGPT in DressCode. By employing a diffusion transformer, we simultaneously denoise all edge tokens along the temporal axis, while maintaining a constant number of denoising steps regardless of dataset-specific edge and panel statistics. With all combination of designs of our model, the sewing pattern generation speed is accelerated by $\textbf{100}\times$ compared to SewingGPT. We achieve new state-of-the-art results on DressCodeData, as well as on the largest sewing pattern dataset, namely GarmentCodeData. The project website is available at https://shenfu-research.github.io/Garment-Diffusion/.
- Abstract(参考訳): ガーメント縫製パターンは、デザイン概念と実用的製造のギャップを埋める基本的なデザイン要素である。
縫製パターンの生成モデリングは、多彩な衣服の創出に不可欠である。
しかし、既存のアプローチは単一入力のモダリティに依存するか、最適以下の生成効率に依存するかによって制限される。
本研究では,マルチモーダル入力(テキスト,画像,不完全縫製パターン)からセンチメートル精度,ベクトル化された3次元縫製パターンを生成可能な新しい生成モデルである,textbf{\textit{GarmentDiffusion}}を提案する。
提案手法は,DressCodeの自己回帰型SewingGPTよりも短い$\textbf{10}\timesのシーケンス長を実現することで,3次元ミシンパターンパラメータをコンパクトなエッジトークン表現に効率的に符号化する。
拡散変圧器を用いることで、データセット固有のエッジやパネル統計によらず、時間軸に沿って全てのエッジトークンを同時に復調する。
モデルのすべての組み合わせにより、縫製パターン生成速度はSwingGPTと比較して$\textbf{100}\times$で加速される。
DressCodeDataと最大のミシンパターンデータセットであるGarmentCodeDataで、最先端の新たな結果が得られます。
プロジェクトのWebサイトはhttps://shenfu-research.github.io/Garment-Diffusion/.comで公開されている。
関連論文リスト
- GarmentX: Autoregressive Parametric Representations for High-Fidelity 3D Garment Generation [15.345904761472106]
GarmentXは、単一の入力画像から多種多様で高忠実でウェアラブルな3D衣服を生成するための新しいフレームワークである。
本稿では,378,682個のパラメータ・イメージ・ペアからなる大規模データセットであるGarmentXデータセットを紹介する。
論文 参考訳(メタデータ) (2025-04-29T04:15:33Z) - ChatGarment: Garment Estimation, Generation and Editing via Large Language Models [79.46056192947924]
ChatGarmentは、大規模な視覚言語モデル(VLM)を活用して、3D衣服の見積もり、生成、編集を自動化する新しいアプローチである。
ウィジェット内の画像やスケッチから縫製パターンを推定し、テキスト記述から生成し、ユーザー指示に基づいて衣服を編集することができる。
論文 参考訳(メタデータ) (2024-12-23T18:59:28Z) - Multimodal Latent Diffusion Model for Complex Sewing Pattern Generation [52.13927859375693]
テキストプロンプト,体形,着物スケッチによって制御される縫製パターンを生成するマルチモーダル生成モデルであるSwingLDMを提案する。
潜伏空間における縫製パターンの分布を学習するために,2段階のトレーニング戦略を設計する。
総合的定性的および定量的実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-19T02:05:28Z) - AIpparel: A Multimodal Foundation Model for Digital Garments [71.12933771326279]
縫製パターンの生成と編集のためのマルチモーダル基礎モデルであるAIpparelを紹介する。
当社のモデルでは,12万以上のユニークな衣服をカスタマイズした大規模データセット上で,最先端の大規模マルチモーダルモデルを微調整する。
本稿では,これらの複雑な縫製パターンを簡潔に符号化し,LLMが効率的に予測できる新しいトークン化手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T07:35:19Z) - GarmentCodeData: A Dataset of 3D Made-to-Measure Garments With Sewing Patterns [18.513707884523072]
縫製パターンを用いた3次元計測服の大規模合成データセットについて述べる。
GarmentCodeDataには115,000のデータポイントがあり、さまざまなデザインをカバーしている。
高速なXPBDシミュレータに基づくオープンソースの3D衣料ドレーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-05-27T19:14:46Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Generating Datasets of 3D Garments with Sewing Patterns [10.729374293332281]
縫製パターンを用いた3D衣料モデルの大規模な合成データセットを作成した。
データセットには、19の異なるベースタイプから生成される20000以上の衣料デザインのバリエーションが含まれている。
論文 参考訳(メタデータ) (2021-09-12T23:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。