論文の概要: High-fidelity 3D Human Digitization from Single 2K Resolution Images
- arxiv url: http://arxiv.org/abs/2303.15108v1
- Date: Mon, 27 Mar 2023 11:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:40:45.293182
- Title: High-fidelity 3D Human Digitization from Single 2K Resolution Images
- Title(参考訳): 単一2k解像度画像からの高精度3dデジタル化
- Authors: Sang-Hun Han, Min-Gyu Park, Ju Hong Yoon, Ju-Mi Kang, Young-Jae Park
and Hae-Gon Jeon
- Abstract要約: 大規模な2K人間のデータセットを構築し、2K解像度画像から3次元人間のモデルを推定する2K2Kを提案する。
また, テクスチャマップ, 3Dジョイント, SMPLパラメータなど, 2,050個の人体モデルも提供する。
- 参考スコア(独自算出の注目度): 16.29087820634057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality 3D human body reconstruction requires high-fidelity and
large-scale training data and appropriate network design that effectively
exploits the high-resolution input images. To tackle these problems, we propose
a simple yet effective 3D human digitization method called 2K2K, which
constructs a large-scale 2K human dataset and infers 3D human models from 2K
resolution images. The proposed method separately recovers the global shape of
a human and its details. The low-resolution depth network predicts the global
structure from a low-resolution image, and the part-wise image-to-normal
network predicts the details of the 3D human body structure. The
high-resolution depth network merges the global 3D shape and the detailed
structures to infer the high-resolution front and back side depth maps.
Finally, an off-the-shelf mesh generator reconstructs the full 3D human model,
which are available at https://github.com/SangHunHan92/2K2K. In addition, we
also provide 2,050 3D human models, including texture maps, 3D joints, and SMPL
parameters for research purposes. In experiments, we demonstrate competitive
performance over the recent works on various datasets.
- Abstract(参考訳): 高品質な3次元人体再構成には、高精細で大規模なトレーニングデータと、高精細な入力画像を効果的に活用する適切なネットワーク設計が必要である。
そこで本研究では,2k解像度画像から3dモデルを推定し,大規模2kデータセットを構築する2k2kと呼ばれる簡易かつ効果的な3d人物デジタル化手法を提案する。
提案手法は,人間の大域的な形状とその詳細を別々に復元する。
低分解能深度ネットワークは低分解能画像から大域構造を予測し、部分的画像-正常ネットワークは3次元人体構造の詳細を予測する。
高分解能深度ネットワークは、大域的な3d形状と詳細な構造をマージし、高分解能の前面と背面の深さマップを推定する。
最後に、市販のメッシュジェネレータが完全な3d人間モデルを再構築し、https://github.com/sanghunhan92/2k2kで利用可能である。
さらに,テクスチャマップ,3dジョイント,smplパラメータなどの2,050種類の3dヒューマンモデルも研究目的に提供しています。
実験では,近年の各種データセットにおける競合性能を示す。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - StructLDM: Structured Latent Diffusion for 3D Human Generation [45.51684124904457]
StructLDMは2次元画像から学習した拡散に基づく非条件の人間の生成モデルである。
ポーズ/ビュー/シェイプコントロールや、合成世代、部品認識の衣服編集、3Dバーチャルトライオンなどのハイレベルなタスクなど、さまざまなレベルのコントロール可能な3Dヒューマン生成と編集を可能にする。
論文 参考訳(メタデータ) (2024-04-01T17:00:18Z) - Joint2Human: High-quality 3D Human Generation via Compact Spherical Embedding of 3D Joints [8.704552731994452]
Joint2Humanは、2次元拡散モデルを利用して詳細な3次元人間の幾何学を直接生成する新しい手法である。
提案手法は,グローバルな構造,局所的な詳細,高解像度,低計算コストを同時に確保できる。
論文 参考訳(メタデータ) (2023-12-14T01:24:22Z) - SHERF: Generalizable Human NeRF from a Single Image [59.10589479808622]
SHERFは、単一の入力画像からアニマタブルな3D人間を復元するための、最初の一般化可能なヒトNeRFモデルである。
本稿では,情報符号化を容易にするために,グローバル,ポイントレベル,ピクセルアライン機能など3D対応の階層的特徴バンクを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:59:12Z) - Get3DHuman: Lifting StyleGAN-Human into a 3D Generative Model using
Pixel-aligned Reconstruction Priors [56.192682114114724]
Get3DHumanは、生成された結果のリアリズムと多様性を大幅に向上させる、新しい3Dヒューマンフレームワークである。
我々のキーとなる観察は、この3Dジェネレータは、人間の2Dジェネレータと3Dコンストラクタを通して学んだ、人間関係の先行技術から利益を得ることができるということだ。
論文 参考訳(メタデータ) (2023-02-02T15:37:46Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - EVA3D: Compositional 3D Human Generation from 2D Image Collections [27.70991135165909]
EVA3Dは2次元画像のみから学習した無条件の3次元人体生成モデルである。
詳細な形状の3D人間をサンプリングし、鐘や笛を使わずに高品質な画像(最大512x256まで)をレンダリングすることができる。
テクスチャーとテクスチャ品質の両方に関して、最先端の3Dヒューマンジェネレーション性能を実現する。
論文 参考訳(メタデータ) (2022-10-10T17:59:31Z) - UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model [58.70130563417079]
我々は,身体の発生を自由に制御できる,一連の分離されたパラメータを持つ新しい3次元人体モデルを導入する。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
論文 参考訳(メタデータ) (2021-10-28T16:24:55Z) - Detailed 3D Human Body Reconstruction from Multi-view Images Combining
Voxel Super-Resolution and Learned Implicit Representation [12.459968574683625]
多視点画像から詳細な3次元人体を再構築する粗い方法を提案する。
粗い3Dモデルは、マルチスケールな特徴に基づいて暗黙表現を学習することによって推定される。
洗練された3D人体モデルは、詳細を保存できるボクセル超解像によって製造することができる。
論文 参考訳(メタデータ) (2020-12-11T08:07:39Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。