論文の概要: StereoPIFu: Depth Aware Clothed Human Digitization via Stereo Vision
- arxiv url: http://arxiv.org/abs/2104.05289v2
- Date: Tue, 13 Apr 2021 06:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 11:14:43.543635
- Title: StereoPIFu: Depth Aware Clothed Human Digitization via Stereo Vision
- Title(参考訳): StereoPIFu:ステレオビジョンによる人間のデジタル化の深度認識
- Authors: Yang Hong, Juyong Zhang, Boyi Jiang, Yudong Guo, Ligang Liu and Hujun
Bao
- Abstract要約: 本研究では,立体視の幾何学的制約をPIFuの暗黙的関数表現と統合し,人間の3次元形状を復元するStereoPIFuを提案する。
従来の作品と比較すると, ステレオピフは衣服によるヒト再建のロバスト性, 完全性, 正確性が著しく向上した。
- 参考スコア(独自算出の注目度): 54.920605385622274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose StereoPIFu, which integrates the geometric
constraints of stereo vision with implicit function representation of PIFu, to
recover the 3D shape of the clothed human from a pair of low-cost rectified
images. First, we introduce the effective voxel-aligned features from a stereo
vision-based network to enable depth-aware reconstruction. Moreover, the novel
relative z-offset is employed to associate predicted high-fidelity human depth
and occupancy inference, which helps restore fine-level surface details.
Second, a network structure that fully utilizes the geometry information from
the stereo images is designed to improve the human body reconstruction quality.
Consequently, our StereoPIFu can naturally infer the human body's spatial
location in camera space and maintain the correct relative position of
different parts of the human body, which enables our method to capture human
performance. Compared with previous works, our StereoPIFu significantly
improves the robustness, completeness, and accuracy of the clothed human
reconstruction, which is demonstrated by extensive experimental results.
- Abstract(参考訳): 本稿では,ステレオビジョンの幾何学的制約とPIFuの暗黙的機能表現を統合したステレオPIFuを提案する。
まず,立体視ネットワークからのボクセル整列機能を導入し,奥行き認識型再構成を実現する。
さらに、予測された高忠実度人間の深度と占有率の推測を関連付けるために、新しい相対zオフセットが使用される。
第2に、ステレオ画像からの幾何学情報を完全に活用するネットワーク構造を設計し、人体復元の質を向上させる。
その結果,StereoPIFuはカメラ空間における人の身体の空間的位置を自然に推測し,身体の異なる部分の正確な相対位置を維持でき,人間のパフォーマンスを捉えることができる。
このステレオピフは, 従来の作品と比較して, 広範囲な実験結果から, 衣服によるヒト再建のロバスト性, 完全性, 正確性が著しく向上した。
関連論文リスト
- SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - Zolly: Zoom Focal Length Correctly for Perspective-Distorted Human Mesh
Reconstruction [66.10717041384625]
Zollyは、視点歪みの画像に焦点を当てた最初の3DHMR法である。
人体の2次元密度ゆらぎスケールを記述した新しいカメラモデルと新しい2次元歪み画像を提案する。
このタスク用に調整された2つの現実世界のデータセットを拡張します。
論文 参考訳(メタデータ) (2023-03-24T04:22:41Z) - Refining 3D Human Texture Estimation from a Single Image [3.8761064607384195]
1枚の画像から3次元の人間のテクスチャを推定することは、グラフィックと視覚に不可欠である。
本稿では,オフセットが深層ニューラルネットワークを介して学習される変形可能な畳み込みによって,入力を適応的にサンプリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T19:53:50Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。