論文の概要: Garment4D: Garment Reconstruction from Point Cloud Sequences
- arxiv url: http://arxiv.org/abs/2112.04159v1
- Date: Wed, 8 Dec 2021 08:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:41:51.026910
- Title: Garment4D: Garment Reconstruction from Point Cloud Sequences
- Title(参考訳): Garment4D: ポイントクラウドシーケンスからのガーメント再構築
- Authors: Fangzhou Hong, Liang Pan, Zhongang Cai, Ziwei Liu
- Abstract要約: 異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
- 参考スコア(独自算出の注目度): 12.86951061306046
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning to reconstruct 3D garments is important for dressing 3D human bodies
of different shapes in different poses. Previous works typically rely on 2D
images as input, which however suffer from the scale and pose ambiguities. To
circumvent the problems caused by 2D images, we propose a principled framework,
Garment4D, that uses 3D point cloud sequences of dressed humans for garment
reconstruction. Garment4D has three dedicated steps: sequential garments
registration, canonical garment estimation, and posed garment reconstruction.
The main challenges are two-fold: 1) effective 3D feature learning for fine
details, and 2) capture of garment dynamics caused by the interaction between
garments and the human body, especially for loose garments like skirts. To
unravel these problems, we introduce a novel Proposal-Guided Hierarchical
Feature Network and Iterative Graph Convolution Network, which integrate both
high-level semantic features and low-level geometric features for fine details
reconstruction. Furthermore, we propose a Temporal Transformer for smooth
garment motions capture. Unlike non-parametric methods, the reconstructed
garment meshes by our method are separable from the human body and have strong
interpretability, which is desirable for downstream tasks. As the first attempt
at this task, high-quality reconstruction results are qualitatively and
quantitatively illustrated through extensive experiments. Codes are available
at https://github.com/hongfz16/Garment4D.
- Abstract(参考訳): 3dの衣服を再構築する学習は、異なる形状の人体を異なるポーズで着る上で重要である。
従来は入力として2D画像に頼っていたが、規模や曖昧さに悩まされていた。
2d画像による問題を回避するため,着替えのための3d点雲列を用いた基本枠組みであるwear4dを提案する。
Garment4Dには、シーケンシャルな衣服登録、標準的な衣服推定、服飾復元の3つの専用ステップがある。
主な課題は2つある。
1)詳細のための効果的な3D特徴学習
2)衣服と人体との相互作用による衣服の動態の把握,特にスカートのようなゆるい衣服について。
そこで本研究では,高レベルな意味的特徴と低レベルな幾何学的特徴を融合した,新しい階層的特徴ネットワークと反復的グラフ畳み込みネットワークを提案する。
さらに,スムースな衣服運動をキャプチャする時変圧器を提案する。
非パラメトリックな手法とは異なり,本手法で再構築した衣服メッシュは人体から分離可能であり,下流作業に適した強い解釈性を有する。
この課題の最初の試みとして、高品質な再構築結果は、広範囲な実験によって質的かつ定量的に示される。
コードはhttps://github.com/hongfz16/garment4dで入手できる。
関連論文リスト
- LayGA: Layered Gaussian Avatars for Animatable Clothing Transfer [40.372917698238204]
我々は、体と衣服を2つの別々の層として定式化する新しい表現であるLayGA(LayGA)を提示する。
我々の表現は、ガウスの地図に基づくアバターの上に構築され、衣服の詳細の表現力に優れています。
単層再構成では,滑らかな表面を再構成するための一連の幾何的制約を提案する。
多層フィッティングの段階では、体と衣服を表すために2つの異なるモデルを訓練し、再構築された衣服のジオメトリーを3D監視として活用する。
論文 参考訳(メタデータ) (2024-05-12T16:11:28Z) - DI-Net : Decomposed Implicit Garment Transfer Network for Digital
Clothed 3D Human [75.45488434002898]
既存の2D仮想試行法は、各ピクセルの深さを知覚できないため、直接3Dに拡張することはできない。
本稿では,新たに試みられた3次元メッシュをシームレスに再構築可能な,分解型インプリシト衣服転送ネットワーク(DI-Net)を提案する。
論文 参考訳(メタデータ) (2023-11-28T14:28:41Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。