論文の概要: DeepCloth: Neural Garment Representation for Shape and Style Editing
- arxiv url: http://arxiv.org/abs/2011.14619v1
- Date: Mon, 30 Nov 2020 08:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:48:15.831004
- Title: DeepCloth: Neural Garment Representation for Shape and Style Editing
- Title(参考訳): DeepCloth: 形状とスタイル編集のためのニューラルガーメント表現
- Authors: Zhaoqi Su and Tao Yu and Yangang Wang and Yipeng Li and Yebin Liu
- Abstract要約: 我々はDeepClothと呼ばれる新しい手法を導入し、統一された衣服表現フレームワークを構築した。
我々のキーとなる考え方は「マスク付きUV配置マップ」による衣服形状の表現である。
上記のUV空間から連続的な特徴空間を学習し、衣服形状の編集と遷移を可能にする。
- 参考スコア(独自算出の注目度): 37.595804908189855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Garment representation, animation and editing is a challenging topic in the
area of computer vision and graphics. Existing methods cannot perform smooth
and reasonable garment transition under different shape styles and topologies.
In this work, we introduce a novel method, termed as DeepCloth, to establish a
unified garment representation framework enabling free and smooth garment style
transition. Our key idea is to represent garment geometry by a "UV-position map
with mask", which potentially allows the description of various garments with
different shapes and topologies. Furthermore, we learn a continuous feature
space mapped from the above UV space, enabling garment shape editing and
transition by controlling the garment features. Finally, we demonstrate
applications of garment animation, reconstruction and editing based on our
neural garment representation and encoding method. To conclude, with the
proposed DeepCloth, we move a step forward on establishing a more flexible and
general 3D garment digitization framework. Experiments demonstrate that our
method can achieve the state-of-the-art garment modeling results compared with
the previous methods.
- Abstract(参考訳): 衣料品の表現、アニメーション、編集はコンピュータビジョンやグラフィックの分野で難しい話題である。
既存の手法では、異なる形状やトポロジーの下で滑らかで合理的な衣服の遷移はできない。
本稿では,自由かつ円滑な衣料スタイル移行を可能にする統一衣料表現フレームワークを構築するために,deepclothと呼ばれる新しい方法を提案する。
私たちのキーとなる考え方は、形状やトポロジの異なる様々な衣服を記述できる「マスク付きUV配置マップ」によって、衣服の幾何学を表現することです。
さらに、上記のUV空間からマッピングした連続的な特徴空間を学習し、衣服の特徴を制御して衣服形状の編集と遷移を可能にする。
最後に,ニューラルネットワークによる衣服表現と符号化手法に基づく衣服アニメーション,再構成,編集の応用例を示す。
結論として,提案するDeepClothでは,よりフレキシブルで汎用的な3D衣料デジタル化フレームワークの確立に向けて一歩前進する。
本手法は,従来手法と比較して最先端の衣服モデリング結果が得られることを示す実験である。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - MonoClothCap: Towards Temporally Coherent Clothing Capture from
Monocular RGB Video [10.679773937444445]
本稿では,モノクラーRGBビデオ入力から時間的コヒーレントな動的衣服の変形を捉える手法を提案する。
我々は,Tシャツ,ショートパンツ,ロングパンツの3種類の衣服の統計的変形モデルを構築した。
本手法は,モノクロ映像から身体と衣服の時間的コヒーレントな再構築を実現する。
論文 参考訳(メタデータ) (2020-09-22T17:54:38Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。