論文の概要: Point cloud segmentation for 3D Clothed Human Layering
- arxiv url: http://arxiv.org/abs/2508.05531v1
- Date: Thu, 07 Aug 2025 16:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.949794
- Title: Point cloud segmentation for 3D Clothed Human Layering
- Title(参考訳): 3次元衣料層形成のための点雲セグメンテーション
- Authors: Davide Garavaso, Federico Masi, Pietro Musoni, Umberto Castellani,
- Abstract要約: 3Dクロースモデリングとシミュレーションは、ファッション、エンターテイメント、アニメーションなど、いくつかの分野でアバターの作成に不可欠である。
本稿では,各3次元点を異なる層に同時に関連付けることのできる,新しい3次元点雲分割パラダイムを提案する。
私たちは、非常にリアルな3Dスキャンを、関連する衣服層の基礎的な真実でシミュレートする、新しい合成データセットを作成します。
- 参考スコア(独自算出の注目度): 1.0074626918268836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Cloth modeling and simulation is essential for avatars creation in several fields, such as fashion, entertainment, and animation. Achieving high-quality results is challenging due to the large variability of clothed body especially in the generation of realistic wrinkles. 3D scan acquisitions provide more accuracy in the representation of real-world objects but lack semantic information that can be inferred with a reliable semantic reconstruction pipeline. To this aim, shape segmentation plays a crucial role in identifying the semantic shape parts. However, current 3D shape segmentation methods are designed for scene understanding and interpretation and only few work is devoted to modeling. In the context of clothed body modeling the segmentation is a preliminary step for fully semantic shape parts reconstruction namely the underlying body and the involved garments. These parts represent several layers with strong overlap in contrast with standard segmentation methods that provide disjoint sets. In this work we propose a new 3D point cloud segmentation paradigm where each 3D point can be simultaneously associated to different layers. In this fashion we can estimate the underlying body parts and the unseen clothed regions, i.e., the part of a cloth occluded by the clothed-layer above. We name this segmentation paradigm clothed human layering. We create a new synthetic dataset that simulates very realistic 3D scans with the ground truth of the involved clothing layers. We propose and evaluate different neural network settings to deal with 3D clothing layering. We considered both coarse and fine grained per-layer garment identification. Our experiments demonstrates the benefit in introducing proper strategies for the segmentation on the garment domain on both the synthetic and real-world scan datasets.
- Abstract(参考訳): 3Dクロースモデリングとシミュレーションは、ファッション、エンターテイメント、アニメーションなど、いくつかの分野でアバターの作成に不可欠である。
質の高い結果を得ることは、特に現実的なしわの発生において、着物の大きなばらつきのために困難である。
3Dスキャンの取得により、現実世界のオブジェクトの表現がより正確になるが、信頼性の高いセマンティック再構築パイプラインで推測できるセマンティック情報が欠如している。
この目的のために、形状のセグメンテーションは意味的な形状の特定において重要な役割を担っている。
しかし、現在の3次元形状分割法はシーン理解と解釈のために設計されており、モデリングに専念する作業はほとんどない。
布体モデリングの文脈において、セグメンテーションは、基礎となる体と関連する衣服を再構築する完全な意味的な形状の部分の予備的なステップである。
これらの部分は、不整合集合を提供する標準的なセグメンテーション法とは対照的に、強い重なり合いを持つ複数の層を表す。
本稿では,各3Dポイントを異なるレイヤに同時に関連付けることのできる,新しい3Dポイントクラウドセグメンテーションパラダイムを提案する。
この方法では、下記の布地、すなわち上述の布地によって隠蔽された布地を推定することができる。
我々はこのセグメンテーションパラダイムを人間の層構造と命名した。
私たちは、非常にリアルな3Dスキャンを、関連する衣服層の基礎的な真実でシミュレートする、新しい合成データセットを作成します。
本稿では,3次元衣服の階層化を扱うために,異なるニューラルネットワーク設定を提案し,評価する。
粗くきめ細かな層ごとの衣服識別について検討した。
本実験は, 合成および実世界のスキャンデータセット上で, 衣服領域のセグメンテーションに適切な戦略を導入することの利点を実証するものである。
関連論文リスト
- GALA: Generating Animatable Layered Assets from a Single Scan [20.310367593475508]
GALAは, 単層布3次元メッシュを入力として, 完全な多層3次元アセットに分解するフレームワークである。
出力は、他の資産と組み合わせて、新しい人間のアバターを作ることができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:59Z) - Exploring Shape Embedding for Cloth-Changing Person Re-Identification
via 2D-3D Correspondences [9.487097819140653]
布を交換するReIDのための新しい形状埋め込みパラダイムを提案する。
2D-3D対応に基づく形状埋め込みパラダイムは、モデル全体の人体形状の理解を著しく向上させる。
衣料品着替え時のReID研究を促進するため,初となる大規模布質変化型ReIDデータセットである3D Dense Persons (DP3D) を構築した。
論文 参考訳(メタデータ) (2023-10-27T19:26:30Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - BodyMap: Learning Full-Body Dense Correspondence Map [19.13654133912062]
BodyMapは,人体内画像と3Dテンプレートモデルの表面との間の高精細かつ連続的な対応関係を得るための新しいフレームワークである。
人間間の複雑な対応は、身体全体を理解するための基本的な問題を解決するために利用できる強力な意味情報を運ぶ。
論文 参考訳(メタデータ) (2022-05-18T17:58:11Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。