論文の概要: Reconstruction of Manipulated Garment with Guided Deformation Prior
- arxiv url: http://arxiv.org/abs/2405.10934v2
- Date: Sun, 13 Oct 2024 12:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:02:24.163890
- Title: Reconstruction of Manipulated Garment with Guided Deformation Prior
- Title(参考訳): ガイド状変形を先行したマニピュレーションガーメントの再建
- Authors: Ren Li, Corentin Dumery, Zhantao Deng, Pascal Fua,
- Abstract要約: 衣服モデルに暗黙的縫製パターン (ISP) モデルを適用し, 形状を表すために拡散に基づく変形を加えることで拡張する。
衣服の折りたたみ時に得られる不完全な3D点雲から3Dの衣服形状を復元するために,その点を事前学習したUV空間にマッピングし,部分的なUVマップを作成し,その前者を適合させて完全なUVマップと2Dから3Dマップを復元する。
- 参考スコア(独自算出の注目度): 46.225397746681736
- License:
- Abstract: Modeling the shape of garments has received much attention, but most existing approaches assume the garments to be worn by someone, which constrains the range of shapes they can assume. In this work, we address shape recovery when garments are being manipulated instead of worn, which gives rise to an even larger range of possible shapes. To this end, we leverage the implicit sewing patterns (ISP) model for garment modeling and extend it by adding a diffusion-based deformation prior to represent these shapes. To recover 3D garment shapes from incomplete 3D point clouds acquired when the garment is folded, we map the points to UV space, in which our priors are learned, to produce partial UV maps, and then fit the priors to recover complete UV maps and 2D to 3D mappings. Experimental results demonstrate the superior reconstruction accuracy of our method compared to previous ones, especially when dealing with large non-rigid deformations arising from the manipulations.
- Abstract(参考訳): 衣服の形状をモデル化することは、多くの注目を集めているが、既存のアプローチでは、衣服が誰かによって着用されることを前提としており、それが想定できる形状の範囲を制限している。
本研究は,衣服が着用される代わりに操作されている場合の形状回復について論じる。
この目的のために,布地モデルに暗黙の縫製パターン(ISP)モデルを適用し,これらの形状を表すために拡散ベースの変形を加えることで拡張する。
衣服の折りたたみ時に得られる不完全な3D点雲から3Dの衣服形状を復元するために,その点を事前学習したUV空間にマッピングし,部分的なUVマップを作成し,その前者を適合させて完全なUVマップと2Dから3Dマップを復元する。
提案手法の再現精度は従来法に比べて優れており,特に操作によって生じる大きな非剛性変形に対処する場合に有用である。
関連論文リスト
- SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。