論文の概要: SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images
- arxiv url: http://arxiv.org/abs/2006.03630v1
- Date: Fri, 5 Jun 2020 18:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:01:25.485938
- Title: SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images
- Title(参考訳): スパースフュージョン:スパースRGBD画像からの動的人間のアバターモデリング
- Authors: Xinxin Zuo and Sen Wang and Jiangbin Zheng and Weiwei Yu and Minglun
Gong and Ruigang Yang and Li Cheng
- Abstract要約: 本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
- 参考スコア(独自算出の注目度): 49.52782544649703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel approach to reconstruct 3D human body
shapes based on a sparse set of RGBD frames using a single RGBD camera. We
specifically focus on the realistic settings where human subjects move freely
during the capture. The main challenge is how to robustly fuse these sparse
frames into a canonical 3D model, under pose changes and surface occlusions.
This is addressed by our new framework consisting of the following steps.
First, based on a generative human template, for every two frames having
sufficient overlap, an initial pairwise alignment is performed; It is followed
by a global non-rigid registration procedure, in which partial results from
RGBD frames are collected into a unified 3D shape, under the guidance of
correspondences from the pairwise alignment; Finally, the texture map of the
reconstructed human model is optimized to deliver a clear and spatially
consistent texture. Empirical evaluations on synthetic and real datasets
demonstrate both quantitatively and qualitatively the superior performance of
our framework in reconstructing complete 3D human models with high fidelity. It
is worth noting that our framework is flexible, with potential applications
going beyond shape reconstruction. As an example, we showcase its use in
reshaping and reposing to a new avatar.
- Abstract(参考訳): 本稿では,単一のrgbdカメラを用いて,rgbdフレームのばらばらな集合に基づく3次元人体形状を再構成する新しい手法を提案する。
特に、撮影中に被験者が自由に動くリアルな設定に焦点を合わせます。
主な課題は、これらのスパースフレームを、ポーズの変化と表面の閉塞の下で、標準の3dモデルにロバストに融合する方法である。
これは、以下のステップからなる新しいフレームワークによって対処されます。
まず、生成的ヒューマンテンプレートに基づいて、十分な重なりを持つ2つのフレーム毎に最初のペアワイズアライメントを行い、次に、ペアワイズアライメントからの対応の指導のもと、rgbdフレームからの部分的な結果を統一された3d形状に収集するグローバル非リギッド登録手順を実行し、最後に、再構成されたヒトモデルのテクスチャマップを最適化して、明快で空間的に一貫したテクスチャを提供する。
合成データセットと実データセットの実証評価は,高忠実度で完全な3次元モデルを構築する上で,我々のフレームワークの定量的かつ定性的に優れた性能を示す。
私たちのフレームワークは柔軟性があり、潜在的なアプリケーションは形状の再構築を超えています。
例として、新しいアバターへのリフォームやリポジションにおける使用例を挙げる。
関連論文リスト
- GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - Object-Centric Domain Randomization for 3D Shape Reconstruction in the Wild [22.82439286651921]
ワンビュー3次元形状復元における最大の課題の1つは、現実世界の環境から得られる3次元形状2次元画像データの不足である。
ドメインランダム化による顕著な成果にインスパイアされたObjectDRは、オブジェクトの外観や背景の視覚的変化をランダムにシミュレーションすることで、そのようなペア化されたデータを合成する。
論文 参考訳(メタデータ) (2024-03-21T16:40:10Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - CrossHuman: Learning Cross-Guidance from Multi-Frame Images for Human
Reconstruction [6.450579406495884]
CrossHumanは、パラメトリック人間モデルとマルチフレームRGB画像からクロスガイダンスを学ぶ新しい方法である。
トラッカーベース手法とトラッカーフリー手法を組み合わせた再構成パイプラインを設計する。
これまでの研究と比較すると、CrossHumanは目に見える領域と見えない領域の両方で、高忠実度な幾何学的詳細とテクスチャを可能にする。
論文 参考訳(メタデータ) (2022-07-20T08:25:20Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。