論文の概要: Spatio-Temporal Garment Reconstruction Using Diffusion Mapping via Pattern Coordinates
- arxiv url: http://arxiv.org/abs/2602.24043v1
- Date: Fri, 27 Feb 2026 14:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.459447
- Title: Spatio-Temporal Garment Reconstruction Using Diffusion Mapping via Pattern Coordinates
- Title(参考訳): パターン座標を用いた拡散マッピングによる時空間ガーメント再構成
- Authors: Yingxuan You, Ren Li, Corentin Dumery, Cong Cao, Hao Li, Pascal Fua,
- Abstract要約: モノクロ画像やビデオから3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実における基本的な問題である。
単一画像とシーケンスの両方から高忠実度な3D衣料の再構築を提案する。
再構築された衣服は、テクスチャ編集、衣料縫い、アニメーションなどの下流の用途をサポートしながら、リアルなダイナミックな動きを示しながら、微妙な幾何学的ディテールを保っている。
- 参考スコア(独自算出の注目度): 38.93906389023275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing 3D clothed humans from monocular images and videos is a fundamental problem with applications in virtual try-on, avatar creation, and mixed reality. Despite significant progress in human body recovery, accurately reconstructing garment geometry, particularly for loose-fitting clothing, remains an open challenge. We propose a unified framework for high-fidelity 3D garment reconstruction from both single images and video sequences. Our approach combines Implicit Sewing Patterns (ISP) with a generative diffusion model to learn expressive garment shape priors in 2D UV space. Leveraging these priors, we introduce a mapping model that establishes correspondences between image pixels, UV pattern coordinates, and 3D geometry, enabling accurate and detailed garment reconstruction from single images. We further extend this formulation to dynamic reconstruction by introducing a spatio-temporal diffusion scheme with test-time guidance to enforce long-range temporal consistency. We also develop analytic projection-based constraints that preserve image-aligned geometry in visible regions while enforcing coherent completion in occluded areas over time. Although trained exclusively on synthetically simulated cloth data, our method generalizes well to real-world imagery and consistently outperforms existing approaches on both tight- and loose-fitting garments. The reconstructed garments preserve fine geometric detail while exhibiting realistic dynamic motion, supporting downstream applications such as texture editing, garment retargeting, and animation.
- Abstract(参考訳): モノクロ画像やビデオから3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実における基本的な問題である。
人体回復の著しい進歩にもかかわらず、特にゆるやかな衣服のために、正確に衣服の幾何学を再構築することは、未解決の課題である。
単一画像とビデオシーケンスの両方から高忠実度3D衣料を復元するための統一的な枠組みを提案する。
提案手法は,2次元UV空間における表現的衣服形状を学習するために,ISP(Implicit Sewing Patterns)と生成拡散モデルを組み合わせたものである。
画像画素,UVパターン座標,および3次元形状の対応性を確立するマッピングモデルを導入し,単一画像からの高精度かつ詳細な衣料品復元を実現する。
我々は、この定式化をさらにダイナミックな再構成に拡張し、長距離時間一貫性を強制するテスト時間ガイダンスを備えた時空間拡散スキームを導入する。
また,可視領域における画像整列幾何の制約を解析的プロジェクションベースで考慮し,時間とともに隠蔽領域におけるコヒーレントな完備化を図った。
本手法は, 合成合成布データに特化して訓練されるが, 実世界の画像によく適応し, タイトな衣料とゆるい衣料の双方において, 既存のアプローチより一貫して優れる。
再構築された衣服は、テクスチャ編集、衣料のリターゲティング、アニメーションなどの下流の応用をサポートしながら、リアルなダイナミックな動きを示しながら、微妙な幾何学的ディテールを保っている。
関連論文リスト
- DressWild: Feed-Forward Pose-Agnostic Garment Sewing Pattern Generation from In-the-Wild Images [50.11081091174558]
本稿では,衣料品のモデリングと製作のための縫製パターン生成に焦点を当てた。
そこで我々は,DressWildを提案する。DressWildは,物理に一貫性のある2Dミシンパターンと,それに対応する3D衣服を,ワン・ザ・ウィンド画像から再構成する新しいフィードフォワードパイプラインである。
論文 参考訳(メタデータ) (2026-02-18T14:45:15Z) - ReWeaver: Towards Simulation-Ready and Topology-Accurate Garment Reconstruction [32.919669263399534]
ReWeaverは、粗いマルチビューRGB画像からトポロジー精度の高い3D衣服と縫製パターンを再構築するための新しいフレームワークである。
我々は,多視点RGB画像,3次元衣服幾何学,テクスチャ化された人体メッシュ,注釈付き縫製パターンからなる大規模データセットGCD-TSを構築した。
論文 参考訳(メタデータ) (2026-01-23T11:42:02Z) - Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - Dress-1-to-3: Single Image to Simulation-Ready 3D Outfit with Diffusion Prior and Differentiable Physics [27.697150953628572]
本稿では,動的衣料アニメーションを用いた仮想試着などのアプリケーションにおいて重要な領域である3D衣料生成に焦点を当てた。
そこで我々はDress-1-to-3という新しいパイプラインを紹介した。
論文 参考訳(メタデータ) (2025-02-05T18:49:03Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - ARCH++: Animation-Ready Clothed Human Reconstruction Revisited [82.83445332309238]
任意の服装スタイルで3Dアバターを再構成する画像ベースARCH++を提案する。
再建されたアバターは、入力ビューから見える領域と見えない領域の両方において、アニメーションに対応しており、非常にリアルである。
論文 参考訳(メタデータ) (2021-08-17T19:27:12Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。