論文の概要: Real-time volumetric rendering of dynamic humans
- arxiv url: http://arxiv.org/abs/2303.11898v1
- Date: Tue, 21 Mar 2023 14:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:38:35.296811
- Title: Real-time volumetric rendering of dynamic humans
- Title(参考訳): 動的人間の実時間ボリュームレンダリング
- Authors: Ignacio Rocco and Iurii Makarov and Filippos Kokkinos and David
Novotny and Benjamin Graham and Natalia Neverova and Andrea Vedaldi
- Abstract要約: 本研究では,モノクラービデオから動的人間の高速3次元再構成とリアルタイムレンダリングを行う手法を提案する。
提案手法は, 72時間を要する最近の最先端の代替技術と比較して, 3時間未満で動的人間を1つのGPUで再構築することができる。
新たなローカル光線マーチングレンダリングにより、モバイルVRデバイス上で、視覚的品質の損失を最小限に抑えて、ニューラルヒューマンを毎秒40フレームで可視化することができる。
- 参考スコア(独自算出の注目度): 83.08068677139822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for fast 3D reconstruction and real-time rendering of
dynamic humans from monocular videos with accompanying parametric body fits.
Our method can reconstruct a dynamic human in less than 3h using a single GPU,
compared to recent state-of-the-art alternatives that take up to 72h. These
speedups are obtained by using a lightweight deformation model solely based on
linear blend skinning, and an efficient factorized volumetric representation
for modeling the shape and color of the person in canonical pose. Moreover, we
propose a novel local ray marching rendering which, by exploiting standard GPU
hardware and without any baking or conversion of the radiance field, allows
visualizing the neural human on a mobile VR device at 40 frames per second with
minimal loss of visual quality. Our experimental evaluation shows superior or
competitive results with state-of-the art methods while obtaining large
training speedup, using a simple model, and achieving real-time rendering.
- Abstract(参考訳): 本稿では,パラメトリックなボディフィットを伴うモノクロビデオから動的人間の高速3次元再構成とリアルタイムレンダリングを行う手法を提案する。
72時間を要する最近の最先端の代替技術と比較して,1つのGPUを用いて3時間未満で動的人間を再構築することができる。
これらのスピードアップは、線形ブレンドスキンのみに基づく軽量な変形モデルと、カノニカルポーズで人物の形状と色をモデル化するための効率的な因子化体積表現を用いて得られる。
さらに,標準的なGPUハードウェアを活用することで,放射界の焼成や変換を行なわずに,視覚的品質の低下を最小限に抑えながら,モバイルVRデバイス上でのニューラルヒューマンを毎秒40フレームで可視化できる新しい局所光線マーチングレンダリングを提案する。
実験による評価では, 大規模トレーニングの高速化を図り, 簡単なモデルを用いて, リアルタイムレンダリングを実現しながら, 最先端技術による優れた, あるいは競争的な結果を示す。
関連論文リスト
- Efficient Neural Implicit Representation for 3D Human Reconstruction [38.241511336562844]
従来の3次元の人間の動きを再構築するには、高価なハードウェアを使う必要があり、高い処理コストがかかる。
本研究では,モノクラービデオソースから正確な人間のアバターを効率的に再構築する革新的アプローチであるHumanAvatarを提案する。
論文 参考訳(メタデータ) (2024-10-23T10:16:01Z) - FaceFolds: Meshed Radiance Manifolds for Efficient Volumetric Rendering of Dynamic Faces [21.946327323788275]
動的顔の3Dレンダリングは難しい問題である。
本稿では,アクターの動的顔パフォーマンスの高品質なレンダリングを可能にする新しい表現を提案する。
論文 参考訳(メタデータ) (2024-04-22T00:44:13Z) - GauHuman: Articulated Gaussian Splatting from Monocular Human Videos [58.553979884950834]
GauHumanは、高速トレーニング(12分)とリアルタイムレンダリング(最大189FPS)の両方のためのガウススプラッティングを備えた3次元人体モデルである。
ガウフマンはカノニカル空間でガウススプラッティングを符号化し、3次元ガウスを線形ブレンドスキンニング(LBS)で正標準空間からポーズ空間に変換する
ZJU_MocapとMonoCapデータセットの実験は、GauHumanが高速なトレーニングとリアルタイムレンダリング速度によって、最先端のパフォーマンスを定量的に質的に達成していることを示している。
論文 参考訳(メタデータ) (2023-12-05T18:59:14Z) - Human Gaussian Splatting: Real-time Rendering of Animatable Avatars [8.719797382786464]
この研究は、マルチビュービデオから得られたフォトリアリスティックな人体アバターのリアルタイムレンダリングの問題に対処する。
本稿では,3次元ガウススプラッティングに基づくアニマタブルな人体モデルを提案する。
提案手法は, THuman4データセット上での最先端PSNRの改善を1.5dBで実現し, リアルタイムにレンダリングできる(512x512の80 fps)。
論文 参考訳(メタデータ) (2023-11-28T12:05:41Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction on Mobile Devices [53.28220984270622]
モバイル端末に暗黙的テクスチャを付加したtextbfSurf$ace 再構成手法を提案する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Deformable 3D Gaussians for High-Fidelity Monocular Dynamic Scene
Reconstruction [29.83056271799794]
暗黙の神経表現は、動的なシーンの再構築とレンダリングに対する新しいアプローチの道を開いた。
本稿では,3次元ガウシアンを用いてシーンを再構成し,標準空間で学習する,変形可能な3次元ガウシアンスプラッティング法を提案する。
微分ガウシアン化器により、変形可能な3Dガウシアンは高いレンダリング品質だけでなく、リアルタイムレンダリング速度も達成できる。
論文 参考訳(メタデータ) (2023-09-22T16:04:02Z) - Efficient Meshy Neural Fields for Animatable Human Avatars [87.68529918184494]
高忠実でアニマブルな人間のアバターをビデオから効果的にデジタル化することは、挑戦的で活発な研究課題である。
最近のレンダリングベースのニューラル表現は、フレンドリーなユーザビリティと光変化の再現性を備えた、人間のデジタル化の新しい方法を開く。
アニマタブルなヒトアバターを再構築するために,メッシュニューラルネットワークを効果的に学習する手法であるEMAを提案する。
論文 参考訳(メタデータ) (2023-03-23T00:15:34Z) - HVTR: Hybrid Volumetric-Textural Rendering for Human Avatars [65.82222842213577]
本稿では,任意のポーズから人間の仮想アバターを効率よく,高品質に合成するニューラルレンダリングパイプラインを提案する。
まず,人体表面の高密度UV多様体上での人間の動きを符号化する。
次に、UV多様体上の符号化情報を利用して、3次元体積表現を構成する。
論文 参考訳(メタデータ) (2021-12-19T17:34:15Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。