論文の概要: GarmentX: Autoregressive Parametric Representations for High-Fidelity 3D Garment Generation
- arxiv url: http://arxiv.org/abs/2504.20409v1
- Date: Tue, 29 Apr 2025 04:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.747374
- Title: GarmentX: Autoregressive Parametric Representations for High-Fidelity 3D Garment Generation
- Title(参考訳): GarmentX:高忠実度3Dガーメント生成のための自己回帰パラメトリック表現
- Authors: Jingfeng Guo, Jinnan Chen, Weikai Chen, Zhenyu Sun, Lanjiong Li, Baozhu Zhao, Lingting Zhu, Xin Wang, Qi Liu,
- Abstract要約: GarmentXは、単一の入力画像から多種多様で高忠実でウェアラブルな3D衣服を生成するための新しいフレームワークである。
本稿では,378,682個のパラメータ・イメージ・ペアからなる大規模データセットであるGarmentXデータセットを紹介する。
- 参考スコア(独自算出の注目度): 15.345904761472106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents GarmentX, a novel framework for generating diverse, high-fidelity, and wearable 3D garments from a single input image. Traditional garment reconstruction methods directly predict 2D pattern edges and their connectivity, an overly unconstrained approach that often leads to severe self-intersections and physically implausible garment structures. In contrast, GarmentX introduces a structured and editable parametric representation compatible with GarmentCode, ensuring that the decoded sewing patterns always form valid, simulation-ready 3D garments while allowing for intuitive modifications of garment shape and style. To achieve this, we employ a masked autoregressive model that sequentially predicts garment parameters, leveraging autoregressive modeling for structured generation while mitigating inconsistencies in direct pattern prediction. Additionally, we introduce GarmentX dataset, a large-scale dataset of 378,682 garment parameter-image pairs, constructed through an automatic data generation pipeline that synthesizes diverse and high-quality garment images conditioned on parametric garment representations. Through integrating our method with GarmentX dataset, we achieve state-of-the-art performance in geometric fidelity and input image alignment, significantly outperforming prior approaches. We will release GarmentX dataset upon publication.
- Abstract(参考訳): この研究は、単一の入力画像から多種多様で高忠実でウェアラブルな3D衣服を生成する新しいフレームワークであるGarmentXを提示する。
伝統的な衣服の再構築手法は、2Dパターンのエッジとその接続性を直接予測するが、これは過度に制約されないアプローチであり、しばしば重度の自己切断や物理的に不明瞭な衣服構造につながる。
対照的に、GarmentXはGarmentCodeと互換性のある構造化され編集可能なパラメトリック表現を導入し、デコードされたミシンパターンが常に有効でシミュレーション可能な3D衣服を形成しながら、衣服の形やスタイルの直感的な修正を可能にしている。
これを実現するために,マスク付き自己回帰モデルを用いて衣服パラメータを逐次予測し,直接パターン予測の不整合を緩和しながら,自己回帰モデルを用いて構造生成を行う。
さらに,378,682個の服用パラメータイメージペアからなる大規模データセットであるGarmentXデータセットを導入し,パラメトリックな衣服表現を前提とした多彩で高品質な衣服用イメージを合成する自動データ生成パイプラインを構築した。
提案手法をGarmentXデータセットと組み合わせることで,幾何学的忠実度と入力画像のアライメントにおける最先端性能を実現し,従来よりも大幅に向上した。
GarmentXデータセットを公開時にリリースします。
関連論文リスト
- GarmentDiffusion: 3D Garment Sewing Pattern Generation with Multimodal Diffusion Transformers [9.228577662928673]
縫製パターンの生成モデリングは 多様化した衣服を作るのに 不可欠です
textbftextitGarmentDiffusionは、センチメートル精度でベクトル化された3次元縫製パターンを生成できる新しい生成モデルである。
論文 参考訳(メタデータ) (2025-04-30T09:56:59Z) - GarmageNet: A Dataset and Scalable Representation for Generic Garment Modeling [31.086617193645022]
Garmageは、複雑な多層衣服のためのニューラルネットワークとCGフレンドリーな表現である。
GarmageNetは、ボディコンフォーミング初期ジオメトリーと複雑な縫製パターンを備えた詳細な衣服を製造している。
工業標準、大規模、高忠実な衣服データセットをリリースする。
論文 参考訳(メタデータ) (2025-04-02T08:37:32Z) - DiffusedWrinkles: A Diffusion-Based Model for Data-Driven Garment Animation [10.9550231281676]
2次元画像拡散モデルを用いて3次元衣料のアニメーションを生成するためのデータ駆動方式を提案する。
提案手法は,多種多様な衣料品や体型のための高品質な3Dアニメーションを合成することができる。
論文 参考訳(メタデータ) (2025-03-24T06:08:26Z) - GarmentCrafter: Progressive Novel View Synthesis for Single-View 3D Garment Reconstruction and Editing [85.67881477813592]
GarmentCrafterは、プロでないユーザが、単一のビューイメージから3Dの衣服を作成、修正できる新しいアプローチである。
本手法は,最先端のワンビュー3D衣料復元法と比較して,視覚的忠実度と視間コヒーレンスに優れる。
論文 参考訳(メタデータ) (2025-03-11T17:56:03Z) - Fine-Grained Controllable Apparel Showcase Image Generation via Garment-Centric Outpainting [39.50293003775675]
潜在拡散モデル(LDM)に基づく新しい衣服中心のアウトペイント(GCO)フレームワークを提案する。
提案フレームワークは,テキストプロンプトと顔画像を用いて,所定の衣服を身に着けたファッションモデルをカスタマイズすることを目的としている。
論文 参考訳(メタデータ) (2025-03-03T08:30:37Z) - ChatGarment: Garment Estimation, Generation and Editing via Large Language Models [79.46056192947924]
ChatGarmentは、大規模な視覚言語モデル(VLM)を活用して、3D衣服の見積もり、生成、編集を自動化する新しいアプローチである。
ウィジェット内の画像やスケッチから縫製パターンを推定し、テキスト記述から生成し、ユーザー指示に基づいて衣服を編集することができる。
論文 参考訳(メタデータ) (2024-12-23T18:59:28Z) - FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - GarmentCodeData: A Dataset of 3D Made-to-Measure Garments With Sewing Patterns [18.513707884523072]
縫製パターンを用いた3次元計測服の大規模合成データセットについて述べる。
GarmentCodeDataには115,000のデータポイントがあり、さまざまなデザインをカバーしている。
高速なXPBDシミュレータに基づくオープンソースの3D衣料ドレーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-05-27T19:14:46Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - Generating Datasets of 3D Garments with Sewing Patterns [10.729374293332281]
縫製パターンを用いた3D衣料モデルの大規模な合成データセットを作成した。
データセットには、19の異なるベースタイプから生成される20000以上の衣料デザインのバリエーションが含まれている。
論文 参考訳(メタデータ) (2021-09-12T23:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。