論文の概要: 4D-DRESS: A 4D Dataset of Real-world Human Clothing with Semantic Annotations
- arxiv url: http://arxiv.org/abs/2404.18630v1
- Date: Mon, 29 Apr 2024 12:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:47:51.984334
- Title: 4D-DRESS: A 4D Dataset of Real-world Human Clothing with Semantic Annotations
- Title(参考訳): 4D-DRESS:セマンティックアノテーションによる現実世界の人間の衣服の4Dデータセット
- Authors: Wenbo Wang, Hsuan-I Ho, Chen Guo, Boxiang Rong, Artur Grigorev, Jie Song, Juan Jose Zarate, Otmar Hilliges,
- Abstract要約: この4D-DRESSは、人間の衣服研究を推し進める最初の現実世界の4Dデータセットである。
4D-DRESSは520の人間の動作シーケンスで64の服をキャプチャし、78Kのテクスチャスキャンを行う。
- 参考スコア(独自算出の注目度): 31.255745398128436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The studies of human clothing for digital avatars have predominantly relied on synthetic datasets. While easy to collect, synthetic data often fall short in realism and fail to capture authentic clothing dynamics. Addressing this gap, we introduce 4D-DRESS, the first real-world 4D dataset advancing human clothing research with its high-quality 4D textured scans and garment meshes. 4D-DRESS captures 64 outfits in 520 human motion sequences, amounting to 78k textured scans. Creating a real-world clothing dataset is challenging, particularly in annotating and segmenting the extensive and complex 4D human scans. To address this, we develop a semi-automatic 4D human parsing pipeline. We efficiently combine a human-in-the-loop process with automation to accurately label 4D scans in diverse garments and body movements. Leveraging precise annotations and high-quality garment meshes, we establish several benchmarks for clothing simulation and reconstruction. 4D-DRESS offers realistic and challenging data that complements synthetic sources, paving the way for advancements in research of lifelike human clothing. Website: https://ait.ethz.ch/4d-dress.
- Abstract(参考訳): デジタルアバターのための人間の衣服の研究は、主に合成データセットに依存している。
簡単に収集できるが、合成データは現実主義では不足し、本物の衣服のダイナミクスを捉えないことが多い。
このギャップに対処するため、4D-DRESSは、高品質な4Dテクスチャスキャンと衣服メッシュを用いて、人間の衣服の研究を進める最初の現実世界の4Dデータセットである。
4D-DRESSは520の人間の動作シーケンスで64の服をキャプチャし、78Kのテクスチャスキャンを行う。
現実世界の服のデータセットを作成することは、特に広範で複雑な4Dスキャンの注釈付けとセグメンテーションにおいて困難である。
そこで我々は,半自動4次元人間の解析パイプラインを開発した。
我々は、ループ内の人間のプロセスと自動化を効果的に組み合わせ、多様な衣服や体の動きの4Dスキャンを正確にラベル付けする。
高精度なアノテーションと高品質な衣料メッシュを活用し,衣服のシミュレーションと再構築のためのいくつかのベンチマークを構築した。
4D-DRESSは、人工的な素材を補完する現実的で挑戦的なデータを提供し、生命に似た人間の衣服の研究の進歩の道を開く。
Webサイト: https://ait.ethz.ch/4d-dress
関連論文リスト
- CORE4D: A 4D Human-Object-Human Interaction Dataset for Collaborative Object REarrangement [20.520938266527438]
提案するCORE4Dは,新規な大規模4次元人物体協調物体再構成である。
現実世界で捉えた1K個の人-物-人間の動作シーケンスにより、我々は様々な新しい物体に動きを増強するための反復的な協調戦略を寄与することにより、CORE4Dを豊かにする。
CORE4Dが提供する広範囲な動きパターンから、人間と物体の相互作用を生成するための2つのタスク、すなわち人-物体の動き予測と相互作用合成をベンチマークする。
論文 参考訳(メタデータ) (2024-06-27T17:32:18Z) - 4D Panoptic Scene Graph Generation [102.22082008976228]
ダイナミックな4次元世界において知覚される生の視覚データをブリッジし,高レベルの視覚的理解を実現する新しい表現である4D Panoptic Scene Graph (PSG-4D)を紹介する。
具体的には、PSG-4Dは、リッチな4D知覚データをノードに抽象化し、正確な位置とステータス情報を持つエンティティとエッジを表現し、時間的関係をキャプチャする。
そこで我々は,PSG4DFormerを提案する。PSG4DFormerはトランスフォーマーベースのモデルで,空間分割マスクを予測し,時間軸に沿ってマスクをトラックし,対応するシーングラフを生成する。
論文 参考訳(メタデータ) (2024-05-16T17:56:55Z) - BEDLAM: A Synthetic Dataset of Bodies Exhibiting Detailed Lifelike
Animated Motion [52.11972919802401]
合成データのみに基づいてトレーニングされたニューラルネットワークは、実際の画像から3次元人間のポーズと形状推定の問題に対して最先端の精度が得られることを示す。
以前の合成データセットは小さく、非現実的で、現実的な衣服が欠けていた。
論文 参考訳(メタデータ) (2023-06-29T13:35:16Z) - 4DHumanOutfit: a multi-subject 4D dataset of human motion sequences in
varying outfits exhibiting large displacements [19.538122092286894]
4DHumanOutfitは、さまざまなアクター、衣装、動きの、高密度にサンプリングされた時間的4D人間のデータのデータセットを提示する。
データセットは、アイデンティティ、衣装、動きを伴う3つの軸に沿って4次元のモーションシーケンスを含むデータのキューブとして見ることができます。
このリッチデータセットは、デジタルヒューマンの処理と作成に多くの潜在的な応用がある。
論文 参考訳(メタデータ) (2023-06-12T19:59:27Z) - Hi4D: 4D Instance Segmentation of Close Human Interaction [32.51930800738743]
Hi4Dは、20の被験者ペア、100のシーケンス、合計11Kフレームからなる4Dテクスチャスキャンのデータセットである。
このデータセットには、2Dと3Dのリッチなインタラクション中心アノテーションと、正確に登録されたパラメトリックボディモデルが含まれている。
論文 参考訳(メタデータ) (2023-03-27T16:53:09Z) - HSC4D: Human-centered 4D Scene Capture in Large-scale Indoor-outdoor
Space Using Wearable IMUs and LiDAR [51.9200422793806]
ボディマウントのIMUとLiDARのみを使用することで、HSC4Dは外部機器の制約なしに空間自由となり、マップ無しで事前に構築された地図を作成できる。
人間と環境の関係も研究され、対話をより現実的なものにしている。
論文 参考訳(メタデータ) (2022-03-17T10:05:55Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - HUMAN4D: A Human-Centric Multimodal Dataset for Motions and Immersive
Media [16.711606354731533]
HUMAN4Dは大規模かつマルチモーダルな4Dデータセットで、同時にキャプチャされたさまざまな人間の活動を含む。
我々はHUMAN4Dによる最新の人間のポーズ推定と3Dポーズ推定手法を用いてベンチマークを行う。
論文 参考訳(メタデータ) (2021-10-14T09:03:35Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。