論文の概要: Garment Recovery with Shape and Deformation Priors
- arxiv url: http://arxiv.org/abs/2311.10356v2
- Date: Mon, 11 Mar 2024 19:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 01:25:38.888634
- Title: Garment Recovery with Shape and Deformation Priors
- Title(参考訳): 形状と変形を優先したガーメント回収
- Authors: Ren Li, Corentin Dumery, Beno\^it Guillard, Pascal Fua
- Abstract要約: 本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
- 参考スコア(独自算出の注目度): 51.41962835642731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While modeling people wearing tight-fitting clothing has made great strides
in recent years, loose-fitting clothing remains a challenge. We propose a
method that delivers realistic garment models from real-world images,
regardless of garment shape or deformation. To this end, we introduce a fitting
approach that utilizes shape and deformation priors learned from synthetic data
to accurately capture garment shapes and deformations, including large ones.
Not only does our approach recover the garment geometry accurately, it also
yields models that can be directly used by downstream applications such as
animation and simulation.
- Abstract(参考訳): タイトフィットの服を着ている人をモデル化することは近年大きな進歩を遂げている一方、ゆるやかなフィット服は依然として課題である。
本研究では,実際の画像からリアルな衣料品モデルを提供する手法を提案する。
そこで本研究では, 合成データから得られた形状および変形先行情報を用いて, 衣服の形状や変形を正確に把握するフィッティング手法を提案する。
我々のアプローチは服の幾何学を正しく復元するだけでなく、アニメーションやシミュレーションのような下流アプリケーションで直接使用できるモデルも生み出す。
関連論文リスト
- Reconstruction of Manipulated Garment with Guided Deformation Prior [46.225397746681736]
衣服モデルに暗黙的縫製パターン (ISP) モデルを適用し, 形状を表すために拡散に基づく変形を加えることで拡張する。
衣服の折りたたみ時に得られる不完全な3D点雲から3Dの衣服形状を復元するために,その点を事前学習したUV空間にマッピングし,部分的なUVマップを作成し,その前者を適合させて完全なUVマップと2Dから3Dマップを復元する。
論文 参考訳(メタデータ) (2024-05-17T17:39:29Z) - ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - GAPS: Geometry-Aware, Physics-Based, Self-Supervised Neural Garment Draping [8.60320342646772]
最近の神経物理学に基づく衣服の変形のモデリングは、より高速で視覚的に美的な結果をもたらす。
材料固有のパラメータは、衣服の伸縮性を制御するために定式化によって使用される。
そこで本研究では,身体の身近さを指標として,形状に配慮した衣服のスキンニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T19:21:53Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On [29.458328272854107]
本稿では,仮想試行のためのデータ駆動方式を初めて学習することのできる3次元衣服の変形生成モデルを提案する。
本手法は, 実感やディテールを損なうことなく, 被着体接触を目立たない身体形状や動作で解決した最初の方法であることを示す。
論文 参考訳(メタデータ) (2021-05-13T17:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。