論文の概要: DeepCloth: Neural Garment Representation for Shape and Style Editing
- arxiv url: http://arxiv.org/abs/2011.14619v1
- Date: Mon, 30 Nov 2020 08:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:48:15.831004
- Title: DeepCloth: Neural Garment Representation for Shape and Style Editing
- Title(参考訳): DeepCloth: 形状とスタイル編集のためのニューラルガーメント表現
- Authors: Zhaoqi Su and Tao Yu and Yangang Wang and Yipeng Li and Yebin Liu
- Abstract要約: 我々はDeepClothと呼ばれる新しい手法を導入し、統一された衣服表現フレームワークを構築した。
我々のキーとなる考え方は「マスク付きUV配置マップ」による衣服形状の表現である。
上記のUV空間から連続的な特徴空間を学習し、衣服形状の編集と遷移を可能にする。
- 参考スコア(独自算出の注目度): 37.595804908189855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Garment representation, animation and editing is a challenging topic in the
area of computer vision and graphics. Existing methods cannot perform smooth
and reasonable garment transition under different shape styles and topologies.
In this work, we introduce a novel method, termed as DeepCloth, to establish a
unified garment representation framework enabling free and smooth garment style
transition. Our key idea is to represent garment geometry by a "UV-position map
with mask", which potentially allows the description of various garments with
different shapes and topologies. Furthermore, we learn a continuous feature
space mapped from the above UV space, enabling garment shape editing and
transition by controlling the garment features. Finally, we demonstrate
applications of garment animation, reconstruction and editing based on our
neural garment representation and encoding method. To conclude, with the
proposed DeepCloth, we move a step forward on establishing a more flexible and
general 3D garment digitization framework. Experiments demonstrate that our
method can achieve the state-of-the-art garment modeling results compared with
the previous methods.
- Abstract(参考訳): 衣料品の表現、アニメーション、編集はコンピュータビジョンやグラフィックの分野で難しい話題である。
既存の手法では、異なる形状やトポロジーの下で滑らかで合理的な衣服の遷移はできない。
本稿では,自由かつ円滑な衣料スタイル移行を可能にする統一衣料表現フレームワークを構築するために,deepclothと呼ばれる新しい方法を提案する。
私たちのキーとなる考え方は、形状やトポロジの異なる様々な衣服を記述できる「マスク付きUV配置マップ」によって、衣服の幾何学を表現することです。
さらに、上記のUV空間からマッピングした連続的な特徴空間を学習し、衣服の特徴を制御して衣服形状の編集と遷移を可能にする。
最後に,ニューラルネットワークによる衣服表現と符号化手法に基づく衣服アニメーション,再構成,編集の応用例を示す。
結論として,提案するDeepClothでは,よりフレキシブルで汎用的な3D衣料デジタル化フレームワークの確立に向けて一歩前進する。
本手法は,従来手法と比較して最先端の衣服モデリング結果が得られることを示す実験である。
関連論文リスト
- Gaussian Garments: Reconstructing Simulation-Ready Clothing with Photorealistic Appearance from Multi-View Video [66.98046635045685]
マルチビュー映像からリアルなシミュレーション可能な衣服資産を再構築するための新しい手法を提案する。
本手法は,3次元メッシュとガウステクスチャを組み合わせた衣服を表現し,その色と高周波表面の細部をエンコードする。
この表現は、マルチビュービデオへの衣服のジオメトリの正確な登録を可能にし、照明効果からアルベドのテクスチャを遠ざけるのに役立つ。
論文 参考訳(メタデータ) (2024-09-12T16:26:47Z) - Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - GarmentDreamer: 3DGS Guided Garment Synthesis with Diverse Geometry and Texture Details [31.92583566128599]
伝統的な3D衣服の作成は、スケッチ、モデリング、紫外線マッピング、時間のかかるプロセスを含む労働集約型である。
本稿では,GarmentDreamerを提案する。GarmentDreamerは,テキストプロンプトから3D衣料を生成するためのガイダンスとして,3Dガウススプラッティング(GS)を利用する新しい手法である。
論文 参考訳(メタデータ) (2024-05-20T23:54:28Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - MonoClothCap: Towards Temporally Coherent Clothing Capture from
Monocular RGB Video [10.679773937444445]
本稿では,モノクラーRGBビデオ入力から時間的コヒーレントな動的衣服の変形を捉える手法を提案する。
我々は,Tシャツ,ショートパンツ,ロングパンツの3種類の衣服の統計的変形モデルを構築した。
本手法は,モノクロ映像から身体と衣服の時間的コヒーレントな再構築を実現する。
論文 参考訳(メタデータ) (2020-09-22T17:54:38Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。