論文の概要: Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates
- arxiv url: http://arxiv.org/abs/2504.08353v1
- Date: Fri, 11 Apr 2025 08:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:19:32.095429
- Title: Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates
- Title(参考訳): 拡散写像型パターン座標を用いた単一ビューガーメント再構成
- Authors: Ren Li, Cong Cao, Corentin Dumery, Yingxuan You, Hao Li, Pascal Fua,
- Abstract要約: 画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 45.48311596587306
- License:
- Abstract: Reconstructing 3D clothed humans from images is fundamental to applications like virtual try-on, avatar creation, and mixed reality. While recent advances have enhanced human body recovery, accurate reconstruction of garment geometry -- especially for loose-fitting clothing -- remains an open challenge. We present a novel method for high-fidelity 3D garment reconstruction from single images that bridges 2D and 3D representations. Our approach combines Implicit Sewing Patterns (ISP) with a generative diffusion model to learn rich garment shape priors in a 2D UV space. A key innovation is our mapping model that establishes correspondences between 2D image pixels, UV pattern coordinates, and 3D geometry, enabling joint optimization of both 3D garment meshes and the corresponding 2D patterns by aligning learned priors with image observations. Despite training exclusively on synthetically simulated cloth data, our method generalizes effectively to real-world images, outperforming existing approaches on both tight- and loose-fitting garments. The reconstructed garments maintain physical plausibility while capturing fine geometric details, enabling downstream applications including garment retargeting and texture manipulation.
- Abstract(参考訳): 画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
近年の進歩は身体の回復を加速させているが、衣服の正確な復元は、特にゆったりした衣服にとって、未解決の課題だ。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
提案手法は,2次元UV空間において,インプリシット縫製パターン(ISP)と生成拡散モデルを組み合わせて,リッチな衣服形状を学習する。
重要なイノベーションは,2次元画像画素,UVパターン座標,および3次元形状の対応性を確立するマッピングモデルである。
本手法は, 合成模擬布データのみをトレーニングしたものの, 実世界の画像に効果的に一般化し, タイトな衣料とゆるい衣料の双方において, 既存のアプローチより優れていた。
復元された衣服は、微妙な幾何学的詳細を捉えつつ、物理的な可視性を維持し、衣服の再ターゲティングやテクスチャ操作を含む下流の応用を可能にする。
関連論文リスト
- Dress-1-to-3: Single Image to Simulation-Ready 3D Outfit with Diffusion Prior and Differentiable Physics [27.697150953628572]
本稿では,動的衣料アニメーションを用いた仮想試着などのアプリケーションにおいて重要な領域である3D衣料生成に焦点を当てた。
そこで我々はDress-1-to-3という新しいパイプラインを紹介した。
論文 参考訳(メタデータ) (2025-02-05T18:49:03Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - Garment4D: Garment Reconstruction from Point Cloud Sequences [12.86951061306046]
異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
論文 参考訳(メタデータ) (2021-12-08T08:15:20Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。