論文の概要: SHARP: Shape-Aware Reconstruction of People in Loose Clothing
- arxiv url: http://arxiv.org/abs/2205.11948v1
- Date: Tue, 24 May 2022 10:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 02:39:25.916306
- Title: SHARP: Shape-Aware Reconstruction of People in Loose Clothing
- Title(参考訳): SHARP: 衣服を着る人々の形状認識の再構築
- Authors: Sai Sagar Jinka, Astitva Srivastava, Chandradeep Pokhariya, Avinash
Sharma and P.J. Narayanan
- Abstract要約: SHARP(Shape Aware Reconstruction of People in loose clothes)は、エンド・ツー・エンドのトレーニング可能な新しいネットワークである。
モノクロ画像から、ゆるい服を着た人間の3D形状と外観を復元する。
従来の最先端手法よりも質的かつ定量的な性能を示す。
- 参考スコア(独自算出の注目度): 6.469298908778292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in deep learning have enabled 3D human body
reconstruction from a monocular image, which has broad applications in multiple
domains. In this paper, we propose SHARP (SHape Aware Reconstruction of People
in loose clothing), a novel end-to-end trainable network that accurately
recovers the 3D geometry and appearance of humans in loose clothing from a
monocular image. SHARP uses a sparse and efficient fusion strategy to combine
parametric body prior with a non-parametric 2D representation of clothed
humans. The parametric body prior enforces geometrical consistency on the body
shape and pose, while the non-parametric representation models loose clothing
and handle self-occlusions as well. We also leverage the sparseness of the
non-parametric representation for faster training of our network while using
losses on 2D maps. Another key contribution is 3DHumans, our new life-like
dataset of 3D human body scans with rich geometrical and textural details. We
evaluate SHARP on 3DHumans and other publicly available datasets and show
superior qualitative and quantitative performance than existing
state-of-the-art methods.
- Abstract(参考訳): 近年のディープラーニングの進歩により、複数の領域に広く応用されている単眼画像からの3次元人体再構築が可能になった。
本稿では,ゆるい衣服の3次元形状と外観をモノクロ画像から正確に再現する,新しいエンドツーエンドのトレーニング可能なネットワークであるSHARPを提案する。
SHARPは、パラメトリックボディと非パラメトリックな人間の2D表現を結合するために、スパースで効率的な融合戦略を使用する。
パラメトリック体は事前に体形とポーズの幾何学的一貫性を強制するが、非パラメトリック表現はゆるい衣服をモデル化し、自己排他性も扱う。
また,非パラメトリック表現のスパース性を利用して,2次元地図の損失を利用してネットワークの高速なトレーニングを行う。
もうひとつの重要な貢献は、3DHumansだ。この3Dの人体スキャンで、幾何学的およびテクスチャ的詳細が豊富になる。
3DHumansなどの公開データセット上でSHARPを評価し,既存の最先端手法よりも質的,定量的な性能を示した。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SHARP: Shape-Aware Reconstruction of People In Loose Clothing [6.796748304066826]
単眼画像からの3D人体再構築は、コンピュータビジョンにおける興味深い問題であり、不適切な問題である。
本研究では,モノクロ画像から,ゆるい服装の3D人物の詳細な形状と外観を正確に復元する,エンドツーエンドのトレーニング可能なネットワークであるSHARPを提案する。
公開されているClos3DおよびTHumanデータセット上でSHARPを評価し、最先端のアプローチに優れた性能を報告した。
論文 参考訳(メタデータ) (2021-06-09T02:54:53Z) - ARCH: Animatable Reconstruction of Clothed Humans [27.849315613277724]
ARCH(Animatable Reconstruction of Clothed Humans)は、モノクロ画像からアニメーション可能な3D衣服を正確に再構築するためのエンドツーエンドのフレームワークである。
ARCHは、単一の制約のないRGB画像から、詳細な3Dリップされたフルボディアバターを生成する、学習されたポーズ認識モデルである。
論文 参考訳(メタデータ) (2020-04-08T14:23:08Z) - PeeledHuman: Robust Shape Representation for Textured 3D Human Body
Reconstruction [7.582064461041252]
PeeledHumanは、人間の体を2DのPeeled DepthとRGBマップのセットとしてエンコードする。
我々は,PelGANを3D Chamfer損失と他の2D損失を用いて訓練し,画素ごとの深度値と頂点毎のRGBフィールドを生成する。
単純な非パラメトリック解では、生成されたピールドデプス写像は3次元空間に逆投影され、完全なテクスチャ化された3次元形状が得られる。
論文 参考訳(メタデータ) (2020-02-16T20:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。