論文の概要: Structure-Preserving 3D Garment Modeling with Neural Sewing Machines
- arxiv url: http://arxiv.org/abs/2211.06701v1
- Date: Sat, 12 Nov 2022 16:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 18:17:56.652509
- Title: Structure-Preserving 3D Garment Modeling with Neural Sewing Machines
- Title(参考訳): ニューラルミシンを用いた構造保存型3次元衣服モデリング
- Authors: Xipeng Chen, Guangrun Wang, Dizhong Zhu, Xiaodan Liang, Philip H. S.
Torr and Liang Lin
- Abstract要約: 構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
- 参考スコア(独自算出の注目度): 190.70647799442565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Garment modeling is a critical and challenging topic in the area of
computer vision and graphics, with increasing attention focused on garment
representation learning, garment reconstruction, and controllable garment
manipulation, whereas existing methods were constrained to model garments under
specific categories or with relatively simple topologies. In this paper, we
propose a novel Neural Sewing Machine (NSM), a learning-based framework for
structure-preserving 3D garment modeling, which is capable of learning
representations for garments with diverse shapes and topologies and is
successfully applied to 3D garment reconstruction and controllable
manipulation. To model generic garments, we first obtain sewing pattern
embedding via a unified sewing pattern encoding module, as the sewing pattern
can accurately describe the intrinsic structure and the topology of the 3D
garment. Then we use a 3D garment decoder to decode the sewing pattern
embedding into a 3D garment using the UV-position maps with masks. To preserve
the intrinsic structure of the predicted 3D garment, we introduce an
inner-panel structure-preserving loss, an inter-panel structure-preserving
loss, and a surface-normal loss in the learning process of our framework. We
evaluate NSM on the public 3D garment dataset with sewing patterns with diverse
garment shapes and categories. Extensive experiments demonstrate that the
proposed NSM is capable of representing 3D garments under diverse garment
shapes and topologies, realistically reconstructing 3D garments from 2D images
with the preserved structure, and accurately manipulating the 3D garment
categories, shapes, and topologies, outperforming the state-of-the-art methods
by a clear margin.
- Abstract(参考訳): 3Dガーメントモデリングはコンピュータビジョンとグラフィックスの領域において重要かつ困難なトピックであり、衣服表現学習、衣服再構成、制御可能な衣服操作に注目が集まる一方で、既存の手法は特定のカテゴリーや比較的単純なトポロジーで衣服をモデル化することに制約されていた。
本稿では, 多様な形状とトポロジを持つ衣服の表現を学習し, 3次元衣料の再構築と制御可能な操作にうまく応用できる, 構造保存型3次元衣料品モデリングの学習基盤であるニューラル縫製機(NSM)を提案する。
まず,縫製パターンを統一した縫製パターン符号化モジュールを用いて縫製パターン埋め込みを行い,縫製パターンが3d衣服の固有構造とトポロジーを正確に記述できることを示す。
次に,3d衣料デコーダを用いて,マスク付きuv位置マップを用いて3d衣料に埋め込まれた縫製パターンをデコードする。
予測された3次元衣服の本質的な構造を維持するために,内パネル構造保存損失,パネル構造保存損失,およびフレームワークの学習過程における表面正規損失を導入する。
縫製パターンを多種多様な衣服形状とカテゴリで表したパブリック3次元衣服データセット上でNSMを評価した。
広汎な実験により,NSMは多種多様な衣服形状とトポロジで3D衣服を表現でき,保存された構造で2D画像からリアルに3D衣服を再構築し,立体衣服のカテゴリ,形状,トポロジを正確に操作し,最先端の手法よりも鮮明なマージンを達成できることが示された。
関連論文リスト
- Garment3DGen: 3D Garment Stylization and Texture Generation [11.836357439129301]
Garment3DGenは、単一の入力イメージをガイダンスとして与えられたベースメッシュから3Dの衣服資産を合成する新しい方法である。
画像から3Dへの拡散手法の最近の進歩を生かして, 3次元の衣服測地を創出する。
我々は、グローバルかつ局所的に一貫した高忠実なテクスチャマップを生成し、入力ガイダンスを忠実にキャプチャする。
論文 参考訳(メタデータ) (2024-03-27T17:59:33Z) - WordRobe: Text-Guided Generation of Textured 3D Garments [30.614451083408266]
WordRobeは、ユーザフレンドリーなテキストプロンプトから非ポーズでテクスチャ化された3Dメッシュを生成するための新しいフレームワークである。
本研究では,3次元衣服空間の学習,衣服合成,テクスチャ合成において,現在のSOTAよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-26T09:44:34Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - Generating Datasets of 3D Garments with Sewing Patterns [10.729374293332281]
縫製パターンを用いた3D衣料モデルの大規模な合成データセットを作成した。
データセットには、19の異なるベースタイプから生成される20000以上の衣料デザインのバリエーションが含まれている。
論文 参考訳(メタデータ) (2021-09-12T23:03:48Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。