論文の概要: Pipeline for 3D reconstruction of the human body from AR/VR headset
mounted egocentric cameras
- arxiv url: http://arxiv.org/abs/2111.05409v1
- Date: Tue, 9 Nov 2021 20:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 14:07:17.523501
- Title: Pipeline for 3D reconstruction of the human body from AR/VR headset
mounted egocentric cameras
- Title(参考訳): AR/VRヘッドセット搭載エゴセントリックカメラによる人体3次元再構築のためのパイプライン
- Authors: Shivam Grover, Kshitij Sidana and Vanita Jain
- Abstract要約: エゴセントリックな視点から全身の3次元再構築のための新しいパイプラインを提案する。
まず、条件付きGANを用いて、エゴセントリックな視点をフルボディの第三者の視点に変換する。
生成されたメッシュは、かなり現実的なボディパーセンテージを持ち、さらなる応用を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a novel pipeline for the 3D reconstruction of the
full body from egocentric viewpoints. 3-D reconstruction of the human body from
egocentric viewpoints is a challenging task as the view is skewed and the body
parts farther from the cameras are occluded. One such example is the view from
cameras installed below VR headsets. To achieve this task, we first make use of
conditional GANs to translate the egocentric views to full body third-person
views. This increases the comprehensibility of the image and caters to
occlusions. The generated third-person view is further sent through the 3D
reconstruction module that generates a 3D mesh of the body. We also train a
network that can take the third person full-body view of the subject and
generate the texture maps for applying on the mesh. The generated mesh has
fairly realistic body proportions and is fully rigged allowing for further
applications such as real-time animation and pose transfer in games. This
approach can be key to a new domain of mobile human telepresence.
- Abstract(参考訳): 本稿では,自己中心的視点から全身を3次元的に再構築する新しいパイプラインを提案する。
遠心的視点からの人体の3次元再構築は、視野が歪み、カメラから遠く離れた体部が遮蔽されているため、難しい課題である。
例えば、VRヘッドセットの下に設置されたカメラからのビューがある。
この課題を達成するために,まず条件付きGANを用いて,エゴセントリックな視点を全身の第三者の視点に翻訳する。
これにより画像の理解性が向上し、オクルージョンに適応する。
生成された3人称ビューは、体の3Dメッシュを生成する3D再構成モジュールを介してさらに送信される。
また、被験者の3人称フルボディビューを取得し、メッシュに適用するためのテクスチャマップを生成するネットワークをトレーニングします。
生成されたメッシュは、かなり現実的なボディパーセンテージを持ち、リアルタイムアニメーションやゲームでのポーズ転送など、さらなる応用を可能にする。
このアプローチは、モバイルヒューマンテレプレゼンスの新たな領域の鍵となる可能性がある。
関連論文リスト
- Synthesizing Moving People with 3D Control [88.68284137105654]
対象とする3次元運動系列の単一画像から人物をアニメーションする拡散モデルに基づくフレームワークを提案する。
まず,1つの画像が与えられた人の見えない部分を幻覚させる拡散モデルについて学習する。
第2に,3次元人間のポーズによって制御される拡散に基づくレンダリングパイプラインを開発する。
論文 参考訳(メタデータ) (2024-01-19T18:59:11Z) - SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - Humans in 4D: Reconstructing and Tracking Humans with Transformers [72.50856500760352]
我々は、人間を再構築し、時間とともに追跡するアプローチを提案する。
このアプローチの中核として、人間のメッシュリカバリのためのネットワークの完全な"トランスフォーマライズ"バージョンを提案する。
このネットワークであるHMR 2.0は、芸術の状態を前進させ、過去に1枚の画像から再構成することが困難であった異常なポーズを分析する能力を示す。
論文 参考訳(メタデータ) (2023-05-31T17:59:52Z) - Farm3D: Learning Articulated 3D Animals by Distilling 2D Diffusion [67.71624118802411]
本稿では,カテゴリー固有の3D再構成器の学習方法であるFarm3Dについて述べる。
本稿では,Stable Diffusion などの画像生成装置を用いて,合成学習データを生成するフレームワークを提案する。
我々のネットワークは、単分子再構成や合成などの分析に利用でき、ビデオゲームのようなリアルタイムアプリケーションのための音響資産を生成することができる。
論文 参考訳(メタデータ) (2023-04-20T17:59:34Z) - SHERF: Generalizable Human NeRF from a Single Image [59.10589479808622]
SHERFは、単一の入力画像からアニマタブルな3D人間を復元するための、最初の一般化可能なヒトNeRFモデルである。
本稿では,情報符号化を容易にするために,グローバル,ポイントレベル,ピクセルアライン機能など3D対応の階層的特徴バンクを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:59:12Z) - 3DHumanGAN: 3D-Aware Human Image Generation with 3D Pose Mapping [37.14866512377012]
3DHumanGAN(3DHumanGAN)は、全身の人間の写実的な画像を合成する3D対応の対向ネットワークである。
本稿では,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-14T17:59:03Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - Inferring Implicit 3D Representations from Human Figures on Pictorial
Maps [1.0499611180329804]
画像地図上で最も頻繁に現れる人物の1つである人物を3次元化するための自動ワークフローを提案する。
まず、完全に連結された層からなるネットワークに、2次元ポーズポイントの深さ座標を推定させる。
得られた3Dポーズポイントは、本体部の2Dマスクと共に深暗面ネットワークに入力され、3D署名された距離場が推測される。
論文 参考訳(メタデータ) (2022-08-30T19:29:18Z) - EgoRenderer: Rendering Human Avatars from Egocentric Camera Images [87.96474006263692]
EgoRendererは、ウェアラブルでエゴ中心の魚眼カメラで捉えた人の全身神経アバターをレンダリングするシステムである。
このようなエゴセントリックなイメージからフルボディのアバターをレンダリングすることは、トップダウンのビューと大きな歪みのために、ユニークな課題を生んでいる。
レンダリング処理をテクスチャ合成,ポーズ構築,ニューラルイメージ変換など,いくつかのステップに分解することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-11-24T18:33:02Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。