論文の概要: GarmageNet: A Multimodal Generative Framework for Sewing Pattern Design and Generic Garment Modeling
- arxiv url: http://arxiv.org/abs/2504.01483v2
- Date: Thu, 05 Jun 2025 08:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.259256
- Title: GarmageNet: A Multimodal Generative Framework for Sewing Pattern Design and Generic Garment Modeling
- Title(参考訳): GarmageNet:パターン設計とジェネリックガーメントモデリングのためのマルチモーダル生成フレームワーク
- Authors: Siran Li, Ruiyang Liu, Chen Liu, Zhendong Wang, Gaofeng He, Yong-Lu Li, Xiaogang Jin, Huamin Wang,
- Abstract要約: GarmageNetは、2Dミシンパターンの作成を自動化する生成フレームワークである。
ガーマージ(Garmage)は、各パネルを構造的幾何学的イメージとしてエンコードする、新しい衣服表現である。
GarmageSetは1万以上のプロフェッショナルデザインの衣服からなる大規模なデータセットである。
- 参考スコア(独自算出の注目度): 31.086617193645022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic digital garment modeling remains a labor-intensive task due to the intricate process of translating 2D sewing patterns into high-fidelity, simulation-ready 3D garments. We introduce GarmageNet, a unified generative framework that automates the creation of 2D sewing patterns, the construction of sewing relationships, and the synthesis of 3D garment initializations compatible with physics-based simulation. Central to our approach is Garmage, a novel garment representation that encodes each panel as a structured geometry image, effectively bridging the semantic and geometric gap between 2D structural patterns and 3D garment shapes. GarmageNet employs a latent diffusion transformer to synthesize panel-wise geometry images and integrates GarmageJigsaw, a neural module for predicting point-to-point sewing connections along panel contours. To support training and evaluation, we build GarmageSet, a large-scale dataset comprising over 10,000 professionally designed garments with detailed structural and style annotations. Our method demonstrates versatility and efficacy across multiple application scenarios, including scalable garment generation from multi-modal design concepts (text prompts, sketches, photographs), automatic modeling from raw flat sewing patterns, pattern recovery from unstructured point clouds, and progressive garment editing using conventional instructions-laying the foundation for fully automated, production-ready pipelines in digital fashion. Project page: https://style3d.github.io/garmagenet.
- Abstract(参考訳): リアルなデジタル衣料モデリングは、2Dミシンパターンを高忠実でシミュレーション可能な3D服に翻訳する複雑なプロセスのため、労働集約的な課題である。
本稿では,2次元縫製パターンの自動生成,縫製関係の構築,物理シミュレーションに適合した3次元衣料初期化の合成を行う統合生成フレームワークであるGarmageNetを紹介する。
これは、各パネルを構造的幾何学的イメージとしてエンコードし、2次元構造パターンと3次元の衣服形状の間の意味的および幾何学的ギャップを効果的に埋める新しい衣服表現である。
GarmageNetは、パネルワイズ幾何学画像を合成するために潜時拡散変換器を使用し、パネル輪郭に沿ってポイントツーポイントミシン接続を予測するニューラルネットワークモジュールであるGarmageJigsawを統合している。
トレーニングと評価をサポートするため、GarmageSetという、10,000以上の専門的に設計された衣服と詳細な構造とスタイルのアノテーションからなる大規模なデータセットを構築しました。
提案手法は,マルチモーダルデザイン概念(テキストプロンプト,スケッチ,写真)からのスケーラブルな衣料生成,生の平坦な縫製パターンからの自動モデリング,非構造化点雲からのパターン復元,デジタル方式による完全自動生産型パイプラインの基盤構築によるプログレッシブな衣料編集など,複数のアプリケーションシナリオにおける汎用性と有効性を示す。
プロジェクトページ: https://style3d.github.io/garmagenet.com
関連論文リスト
- GarmentDiffusion: 3D Garment Sewing Pattern Generation with Multimodal Diffusion Transformers [9.228577662928673]
GarmentDiffusionは、マルチモーダル入力からセンチメートル精度でベクトル化された3Dミシンパターンを生成できる新しい生成モデルである。
提案手法は、3次元ミシンパターンパラメータをコンパクトなエッジトークン表現に効率的に符号化する。
その結果,縫製パターン生成速度はSwingGPTの100倍に向上した。
論文 参考訳(メタデータ) (2025-04-30T09:56:59Z) - GarmentX: Autoregressive Parametric Representations for High-Fidelity 3D Garment Generation [15.345904761472106]
GarmentXは、単一の入力画像から多種多様で高忠実でウェアラブルな3D衣服を生成するための新しいフレームワークである。
本稿では,378,682個のパラメータ・イメージ・ペアからなる大規模データセットであるGarmentXデータセットを紹介する。
論文 参考訳(メタデータ) (2025-04-29T04:15:33Z) - DiffusedWrinkles: A Diffusion-Based Model for Data-Driven Garment Animation [10.9550231281676]
2次元画像拡散モデルを用いて3次元衣料のアニメーションを生成するためのデータ駆動方式を提案する。
提案手法は,多種多様な衣料品や体型のための高品質な3Dアニメーションを合成することができる。
論文 参考訳(メタデータ) (2025-03-24T06:08:26Z) - SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
SuperCarverは、粗いメッシュにテクスチャ一貫性のある表面の詳細を追加するのに適した3Dジオメトリフレームワークである。
幾何的詳細生成を実現するために,2つのペアの低極性および高極性正規レンダリングのデータセットに微調整を施した決定論的事前誘導正規拡散モデルを開発した。
メッシュ構造を、潜在的に不完全な正規写像予測から最適化するために、単純で効果的なノイズ耐性逆レンダリング方式を設計する。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - ChatGarment: Garment Estimation, Generation and Editing via Large Language Models [79.46056192947924]
ChatGarmentは、大規模な視覚言語モデル(VLM)を活用して、3D衣服の見積もり、生成、編集を自動化する新しいアプローチである。
ウィジェット内の画像やスケッチから縫製パターンを推定し、テキスト記述から生成し、ユーザー指示に基づいて衣服を編集することができる。
論文 参考訳(メタデータ) (2024-12-23T18:59:28Z) - Multimodal Latent Diffusion Model for Complex Sewing Pattern Generation [52.13927859375693]
テキストプロンプト,体形,着物スケッチによって制御される縫製パターンを生成するマルチモーダル生成モデルであるSwingLDMを提案する。
潜伏空間における縫製パターンの分布を学習するために,2段階のトレーニング戦略を設計する。
総合的定性的および定量的実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-19T02:05:28Z) - Design2GarmentCode: Turning Design Concepts to Tangible Garments Through Program Synthesis [27.1965932507935]
大規模マルチモーダルモデル(LMM)に基づく新しい縫製パターン生成手法を提案する。
LMMは多様なデザインインプットを解釈するための直感的なインタフェースを提供する一方、パターン作成プログラムは、よく構造化され意味のあるミシンパターンの表現として機能する。
本手法は, 画像, テキスト記述, デザイナースケッチ, あるいはそれらの組み合わせなどの複雑なデザイン表現を柔軟に処理し, 縫合したサイズ精度の縫製パターンに変換する。
論文 参考訳(メタデータ) (2024-12-11T18:26:45Z) - FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - Gaussian Garments: Reconstructing Simulation-Ready Clothing with Photorealistic Appearance from Multi-View Video [66.98046635045685]
マルチビュー映像からリアルなシミュレーション可能な衣服資産を再構築するための新しい手法を提案する。
本手法は,3次元メッシュとガウステクスチャを組み合わせた衣服を表現し,その色と高周波表面の細部をエンコードする。
この表現は、マルチビュービデオへの衣服のジオメトリの正確な登録を可能にし、照明効果からアルベドのテクスチャを遠ざけるのに役立つ。
論文 参考訳(メタデータ) (2024-09-12T16:26:47Z) - GarmentCodeData: A Dataset of 3D Made-to-Measure Garments With Sewing Patterns [18.513707884523072]
縫製パターンを用いた3次元計測服の大規模合成データセットについて述べる。
GarmentCodeDataには115,000のデータポイントがあり、さまざまなデザインをカバーしている。
高速なXPBDシミュレータに基づくオープンソースの3D衣料ドレーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-05-27T19:14:46Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - PersonalTailor: Personalizing 2D Pattern Design from 3D Garment Point
Clouds [59.617014796845865]
ガーメントパターン設計は、3D衣服を対応する2Dパネルとその縫製構造に変換することを目的としている。
PersonalTailorはパーソナライズされた2Dパターン設計方法であり、ユーザーは特定の制約や要求を入力できる。
まず、教師なしのクロスモーダルアソシエーションと注意融合に基づいて、マルチモーダルパネルの埋め込みを学習する。
次に、トランスフォーマーエンコーダ-デコーダフレームワークを使用して、個別にバイナリパネルマスクを予測する。
論文 参考訳(メタデータ) (2023-03-17T00:03:38Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - Generating Datasets of 3D Garments with Sewing Patterns [10.729374293332281]
縫製パターンを用いた3D衣料モデルの大規模な合成データセットを作成した。
データセットには、19の異なるベースタイプから生成される20000以上の衣料デザインのバリエーションが含まれている。
論文 参考訳(メタデータ) (2021-09-12T23:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。