論文の概要: UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model
- arxiv url: http://arxiv.org/abs/2110.15267v1
- Date: Thu, 28 Oct 2021 16:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:23:25.234206
- Title: UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model
- Title(参考訳): 人体デカップリング3dモデルによる10億点の高密度ポーズ合成
- Authors: Haonan Yan, Jiaqi Chen, Xujie Zhang, Shengkai Zhang, Nianhong Jiao,
Xiaodan Liang, Tianxiang Zheng
- Abstract要約: 我々は,身体の発生を自由に制御できる,一連の分離されたパラメータを持つ新しい3次元人体モデルを導入する。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
- 参考スコア(独自算出の注目度): 58.70130563417079
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recovering dense human poses from images plays a critical role in
establishing an image-to-surface correspondence between RGB images and the 3D
surface of the human body, serving the foundation of rich real-world
applications, such as virtual humans, monocular-to-3d reconstruction. However,
the popular DensePose-COCO dataset relies on a sophisticated manual annotation
system, leading to severe limitations in acquiring the denser and more accurate
annotated pose resources. In this work, we introduce a new 3D human-body model
with a series of decoupled parameters that could freely control the generation
of the body. Furthermore, we build a data generation system based on this
decoupling 3D model, and construct an ultra dense synthetic benchmark
UltraPose, containing around 1.3 billion corresponding points. Compared to the
existing manually annotated DensePose-COCO dataset, the synthetic UltraPose has
ultra dense image-to-surface correspondences without annotation cost and error.
Our proposed UltraPose provides the largest benchmark and data resources for
lifting the model capability in predicting more accurate dense poses. To
promote future researches in this field, we also propose a transformer-based
method to model the dense correspondence between 2D and 3D worlds. The proposed
model trained on synthetic UltraPose can be applied to real-world scenarios,
indicating the effectiveness of our benchmark and model.
- Abstract(参考訳): 画像から密集した人間のポーズを復元することは、RGB画像と人間の3次元表面との間の画像と表面の対応を確立する上で重要な役割を担っている。
しかし、人気の高いDensePose-COCOデータセットは高度な手動アノテーションシステムに依存しており、より密集したより正確な注釈付きポーズリソースを取得する際に深刻な制限が生じる。
本研究では,身体の発生を自由に制御できる,一連の分離パラメータを持つ新しい3次元人体モデルを提案する。
さらに,このデカップリング3次元モデルに基づくデータ生成システムを構築し,約13億個の対応する点を含む超高密度合成ベンチマークUltraPoseを構築した。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
提案するultraposeは,より正確な密接なポーズを予測するためのモデル能力を高めるための,最大のベンチマークとデータリソースを提供する。
この分野での今後の研究を促進するために, 2次元世界と3次元世界の密接な対応をモデル化するトランスフォーマティブベース手法を提案する。
提案手法は, 実世界のシナリオに適用可能であり, ベンチマークとモデルの有効性を示す。
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - SynBody: Synthetic Dataset with Layered Human Models for 3D Human
Perception and Modeling [93.60731530276911]
我々は3つの魅力的な特徴を持つ新しい合成データセット、SynBodyを紹介した。
データセットは、正確な3Dアノテーションを備えた1.2Mイメージで構成され、1万の人体モデル、1,187のアクション、さまざまな視点をカバーしている。
論文 参考訳(メタデータ) (2023-03-30T13:30:12Z) - 6D Object Pose Estimation from Approximate 3D Models for Orbital
Robotics [19.64111218032901]
単一画像から物体の6次元ポーズを推定する新しい手法を提案する。
画素毎に3次元モデル座標を回帰する高密度な2次元から3次元対応予測器を用いる。
提案手法は,SPEED+データセット上での最先端性能を実現し,SPEC2021ポストモーテムコンペティションで優勝した。
論文 参考訳(メタデータ) (2023-03-23T13:18:05Z) - Decanus to Legatus: Synthetic training for 2D-3D human pose lifting [26.108023246654646]
10個の手作り3Dポーズ(Decanus)に基づく3Dポーズ分布から無限個の合成人間のポーズ(Legatus)を生成するアルゴリズムを提案する。
この結果から,特定データセットの実際のデータを用いた手法に匹敵する3次元ポーズ推定性能を,ゼロショット設定で実現し,フレームワークの可能性を示した。
論文 参考訳(メタデータ) (2022-10-05T13:10:19Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers [67.8628917474705]
THUNDRは、人の3Dポーズと形状を再構築するトランスフォーマーベースのディープニューラルネットワーク手法である。
完全教師付きモデルと自己教師型モデルの両方に対して,Human3.6Mと3DPWの最先端結果を示す。
野生で収集された難易度の高い人間のポーズに対して, 非常に堅固な3次元再構成性能を観察した。
論文 参考訳(メタデータ) (2021-06-17T09:09:24Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。