論文の概要: DressWild: Feed-Forward Pose-Agnostic Garment Sewing Pattern Generation from In-the-Wild Images
- arxiv url: http://arxiv.org/abs/2602.16502v1
- Date: Wed, 18 Feb 2026 14:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.62045
- Title: DressWild: Feed-Forward Pose-Agnostic Garment Sewing Pattern Generation from In-the-Wild Images
- Title(参考訳): DressWild:In-the-Wild画像からのフィードフォワードポス非依存ガーメントパターン生成
- Authors: Zeng Tao, Ying Jiang, Yunuo Chen, Tianyi Xie, Huamin Wang, Yingnian Wu, Yin Yang, Abishek Sampath Kumar, Kenji Tashiro, Chenfanfu Jiang,
- Abstract要約: 本稿では,衣料品のモデリングと製作のための縫製パターン生成に焦点を当てた。
そこで我々は,DressWildを提案する。DressWildは,物理に一貫性のある2Dミシンパターンと,それに対応する3D衣服を,ワン・ザ・ウィンド画像から再構成する新しいフィードフォワードパイプラインである。
- 参考スコア(独自算出の注目度): 50.11081091174558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in garment pattern generation have shown promising progress. However, existing feed-forward methods struggle with diverse poses and viewpoints, while optimization-based approaches are computationally expensive and difficult to scale. This paper focuses on sewing pattern generation for garment modeling and fabrication applications that demand editable, separable, and simulation-ready garments. We propose DressWild, a novel feed-forward pipeline that reconstructs physics-consistent 2D sewing patterns and the corresponding 3D garments from a single in-the-wild image. Given an input image, our method leverages vision-language models (VLMs) to normalize pose variations at the image level, then extract pose-aware, 3D-informed garment features. These features are fused through a transformer-based encoder and subsequently used to predict sewing pattern parameters, which can be directly applied to physical simulation, texture synthesis, and multi-layer virtual try-on. Extensive experiments demonstrate that our approach robustly recovers diverse sewing patterns and the corresponding 3D garments from in-the-wild images without requiring multi-view inputs or iterative optimization, offering an efficient and scalable solution for realistic garment simulation and animation.
- Abstract(参考訳): 衣服パターン生成の最近の進歩は、有望な進歩を示している。
しかし、既存のフィードフォワード手法は様々なポーズや視点に苦しむ一方で、最適化に基づくアプローチは計算コストが高く、スケールが難しい。
本稿では, 編集可能, 分離可能, シミュレーション可能な衣料を要求される衣服モデリングおよび製作アプリケーションのための縫製パターン生成に焦点を当てた。
そこで我々は,DressWildを提案する。DressWildは,物理に一貫性のある2Dミシンパターンと,それに対応する3D衣服を,ワン・ザ・ウィンド画像から再構成する新しいフィードフォワードパイプラインである。
入力画像が与えられた場合、視覚言語モデル(VLM)を利用して、画像レベルでのポーズの変動を正規化し、3Dインフォームドなポーズアウェアの特徴を抽出する。
これらの機能はトランスベースのエンコーダを通じて融合され、その後、物理的シミュレーション、テクスチャ合成、多層仮想トライオンに直接適用可能な縫製パターンパラメータの予測に使用される。
広汎な実験により,マルチビュー入力や反復最適化を必要とせず,多様な縫製パターンとそれに対応する3次元衣料を画像から頑健に回収し,リアルな衣料シミュレーションとアニメーションのための効率的でスケーラブルなソリューションを提供することができた。
関連論文リスト
- Learning High-Fidelity Cloth Animation via Skinning-Free Image Transfer [64.49436559408049]
身体のポーズから3次元の衣服の変形を生成する新しい手法を提案する。
本手法は,様々な衣料品のアニメーション品質を著しく向上させ,最先端の方法よりも細いしわを回収する。
論文 参考訳(メタデータ) (2025-12-05T10:28:08Z) - DiffusedWrinkles: A Diffusion-Based Model for Data-Driven Garment Animation [10.9550231281676]
2次元画像拡散モデルを用いて3次元衣料のアニメーションを生成するためのデータ駆動方式を提案する。
提案手法は,多種多様な衣料品や体型のための高品質な3Dアニメーションを合成することができる。
論文 参考訳(メタデータ) (2025-03-24T06:08:26Z) - Dress-1-to-3: Single Image to Simulation-Ready 3D Outfit with Diffusion Prior and Differentiable Physics [27.697150953628572]
本稿では,動的衣料アニメーションを用いた仮想試着などのアプリケーションにおいて重要な領域である3D衣料生成に焦点を当てた。
そこで我々はDress-1-to-3という新しいパイプラインを紹介した。
論文 参考訳(メタデータ) (2025-02-05T18:49:03Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。