論文の概要: NGL-Prompter: Training-Free Sewing Pattern Estimation from a Single Image
- arxiv url: http://arxiv.org/abs/2602.20700v1
- Date: Tue, 24 Feb 2026 09:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.685053
- Title: NGL-Prompter: Training-Free Sewing Pattern Estimation from a Single Image
- Title(参考訳): NGL-Prompter:単一画像からの訓練不要縫製パターン推定
- Authors: Anna Badalyan, Pratheba Selvaraju, Giorgio Becherini, Omid Taheri, Victoria Fernandez Abrevaya, Michael Black,
- Abstract要約: 画像から縫製パターンを推定することは、高品質な3D衣服を作るための実践的なアプローチである。
NGL(Natural Garment Language)は、GarmentCodeを言語モデルにより理解しやすい表現に再構成する新しい中間言語である。
我々は,Dress4D,CloSe,新たに収集した約5,000のイン・ザ・ワイルド・ファッション・イメージのデータセットについて検討した。
- 参考スコア(独自算出の注目度): 4.620470560214746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating sewing patterns from images is a practical approach for creating high-quality 3D garments. Due to the lack of real-world pattern-image paired data, prior approaches fine-tune large vision language models (VLMs) on synthetic garment datasets generated by randomly sampling from a parametric garment model GarmentCode. However, these methods often struggle to generalize to in-the-wild images, fail to capture real-world correlations between garment parts, and are typically restricted to single-layer outfits. In contrast, we observe that VLMs are effective at describing garments in natural language, yet perform poorly when asked to directly regress GarmentCode parameters from images. To bridge this gap, we propose NGL (Natural Garment Language), a novel intermediate language that restructures GarmentCode into a representation more understandable to language models. Leveraging this language, we introduce NGL-Prompter, a training-free pipeline that queries large VLMs to extract structured garment parameters, which are then deterministically mapped to valid GarmentCode. We evaluate our method on the Dress4D, CloSe and a newly collected dataset of approximately 5,000 in-the-wild fashion images. Our approach achieves state-of-the-art performance on standard geometry metrics and is strongly preferred in both human and GPT-based perceptual evaluations compared to existing baselines. Furthermore, NGL-prompter can recover multi-layer outfits whereas competing methods focus mostly on single-layer garments, highlighting its strong generalization to real-world images even with occluded parts. These results demonstrate that accurate sewing pattern reconstruction is possible without costly model training. Our code and data will be released for research use.
- Abstract(参考訳): 画像から縫製パターンを推定することは、高品質な3D衣服を作るための実践的なアプローチである。
実世界のパターンイメージペアデータがないため、従来はパラメトリックな衣料モデルGarmentCodeからランダムにサンプリングした合成衣料データセット上での微調整大型視覚言語モデル(VLM)にアプローチしていた。
しかし、これらの手法は、通常、Wild画像への一般化に苦慮し、衣料品間の現実世界の相関を捉えず、通常は単層服に限られる。
対照的に、VLMは自然言語で衣服を記述するのに有効であるが、画像から直接GarmentCodeパラメータを回帰するよう依頼すると、性能が悪くなる。
このギャップを埋めるために、我々は、GarmentCodeを言語モデルにより理解しやすい表現に再構成する新しい中間言語であるNGL(Natural Garment Language)を提案する。
NGL-Prompterはトレーニング不要のパイプラインで、大きなVLMをクエリして構造化された衣服パラメータを抽出し、決定論的に有効なGarmentCodeにマップする。
我々は,Dress4D,CloSe,新たに収集した約5,000のイン・ザ・ワイルド・ファッション・イメージのデータセットについて検討した。
提案手法は,標準幾何測度における最先端性能を実現し,既存のベースラインと比較して,人間とGPTに基づく知覚評価に強く好まれる。
さらに、NGLプロンプターは多層衣料を回収することができるが、競合する手法は、主に単層衣料に焦点を合わせており、隠蔽された部分であっても、現実世界の画像への強力な一般化を強調している。
これらの結果から,コストのかかるモデルトレーニングを必要とせず,正確な縫製パターン再構築が可能であることが示唆された。
私たちのコードとデータは研究用にリリースされます。
関連論文リスト
- DressWild: Feed-Forward Pose-Agnostic Garment Sewing Pattern Generation from In-the-Wild Images [50.11081091174558]
本稿では,衣料品のモデリングと製作のための縫製パターン生成に焦点を当てた。
そこで我々は,DressWildを提案する。DressWildは,物理に一貫性のある2Dミシンパターンと,それに対応する3D衣服を,ワン・ザ・ウィンド画像から再構成する新しいフィードフォワードパイプラインである。
論文 参考訳(メタデータ) (2026-02-18T14:45:15Z) - ChatGarment: Garment Estimation, Generation and Editing via Large Language Models [79.46056192947924]
ChatGarmentは、大規模な視覚言語モデル(VLM)を活用して、3D衣服の見積もり、生成、編集を自動化する新しいアプローチである。
ウィジェット内の画像やスケッチから縫製パターンを推定し、テキスト記述から生成し、ユーザー指示に基づいて衣服を編集することができる。
論文 参考訳(メタデータ) (2024-12-23T18:59:28Z) - GarVerseLOD: High-Fidelity 3D Garment Reconstruction from a Single In-the-Wild Image using a Dataset with Levels of Details [21.959372614365908]
GarVerseLODは、1枚の制約のない画像から高忠実度3D衣服を復元する際、前例のない堅牢性を達成することを目的としている。
GarVerseLODは、プロのアーティストが手作業で作った精密な幾何学的な細部を持つ、高品質な布のモデル6000を収集する。
条件付き拡散モデルに基づく新しいラベリングパラダイムを提案する。
論文 参考訳(メタデータ) (2024-11-05T12:30:07Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。