論文の概要: Mixture of Volumetric Primitives for Efficient Neural Rendering
- arxiv url: http://arxiv.org/abs/2103.01954v1
- Date: Tue, 2 Mar 2021 18:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:01:23.290724
- Title: Mixture of Volumetric Primitives for Efficient Neural Rendering
- Title(参考訳): 効率的なニューラルレンダリングのためのボリュームプリミティブの混合
- Authors: Stephen Lombardi, Tomas Simon, Gabriel Schwartz, Michael Zollhoefer,
Yaser Sheikh, Jason Saragih
- Abstract要約: 動的3Dコンテンツをレンダリングするための表現であるVolumetric Primitives(MVP)のMixtureを紹介します。
mvpはボリューム表現の完全性とプリミティブベースのレンダリングの効率を組み合わせる。
MVPは品質と実行時のパフォーマンスの点で優れた結果をもたらします。
- 参考スコア(独自算出の注目度): 38.18092468814364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time rendering and animation of humans is a core function in games,
movies, and telepresence applications. Existing methods have a number of
drawbacks we aim to address with our work. Triangle meshes have difficulty
modeling thin structures like hair, volumetric representations like Neural
Volumes are too low-resolution given a reasonable memory budget, and
high-resolution implicit representations like Neural Radiance Fields are too
slow for use in real-time applications. We present Mixture of Volumetric
Primitives (MVP), a representation for rendering dynamic 3D content that
combines the completeness of volumetric representations with the efficiency of
primitive-based rendering, e.g., point-based or mesh-based methods. Our
approach achieves this by leveraging spatially shared computation with a
deconvolutional architecture and by minimizing computation in empty regions of
space with volumetric primitives that can move to cover only occupied regions.
Our parameterization supports the integration of correspondence and tracking
constraints, while being robust to areas where classical tracking fails, such
as around thin or translucent structures and areas with large topological
variability. MVP is a hybrid that generalizes both volumetric and
primitive-based representations. Through a series of extensive experiments we
demonstrate that it inherits the strengths of each, while avoiding many of
their limitations. We also compare our approach to several state-of-the-art
methods and demonstrate that MVP produces superior results in terms of quality
and runtime performance.
- Abstract(参考訳): 人間のリアルタイムレンダリングとアニメーションは、ゲーム、映画、テレプレゼンスアプリケーションにおいてコア機能である。
既存の方法には、私たちの仕事で対処しようとする多くの欠点があります。
トライアングルメッシュは、ヘアのような薄い構造をモデル化するのが困難であり、ニューラルネットワークボリュームのようなボリューム表現は、適切なメモリ予算を考えると解像度が低く、ニューラルネットワークの放射フィールドのような高分解能の暗黙表現は、リアルタイムアプリケーションで使用するには遅すぎる。
本稿では,ボリューム表現の完全性と,ポイントベースやメッシュベースといったプリミティブベースのレンダリング効率を組み合わせた動的3dコンテンツのレンダリングのための表現であるボリュームプリミティブ(mvp)の混合について述べる。
提案手法は,空間的に共有された計算をデコンボリューションアーキテクチャで利用し,空間の空き領域における計算を,占有領域のみをカバーできる体積プリミティブで最小化する。
パラメータ化は対応制約と追跡制約の統合をサポートし、また、薄いあるいは半透明な構造や大きなトポロジカル変数を持つ領域など、古典的な追跡が失敗する領域に対して堅牢である。
MVPは、ボリュームとプリミティブベースの表現の両方を一般化するハイブリッドです。
一連の広範な実験を通じて、我々はそれがそれらの制限の多くを避けながら、各々の強みを継承することを実証します。
我々はまた、私たちのアプローチを最先端のいくつかのメソッドと比較し、MVPが品質と実行時のパフォーマンスの点で優れた結果をもたらすことを示す。
関連論文リスト
- HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Explicifying Neural Implicit Fields for Efficient Dynamic Human Avatar
Modeling via a Neural Explicit Surface [10.604108229704336]
暗黙のニューラルネットワークは、ダイナミックな3Dコンテンツのモデリングにおいて、従来の明示的な表現よりも有利である。
本稿では,暗黙のニューラルネットワークを明示的に表現するために,ニューラル・エクスプリシト・サーフェス(NES)の利用を提案する。
NESは従来の3Dアプローチと同様に、レンダリング速度を大幅に改善し、メモリコストを削減した。
論文 参考訳(メタデータ) (2023-08-07T07:17:18Z) - Neural Kernel Surface Reconstruction [80.51581494300423]
本稿では,大規模でスパースでノイズの多い点雲から3次元暗示面を再構成する新しい手法を提案する。
我々のアプローチは、最近導入されたNeural Kernel Fields表現に基づいている。
論文 参考訳(メタデータ) (2023-05-31T06:25:18Z) - NeuManifold: Neural Watertight Manifold Reconstruction with Efficient
and High-Quality Rendering Support [45.68296352822415]
マルチビュー入力画像から高品質な水密多様体メッシュを生成する手法を提案する。
提案手法は両世界の利点を組み合わせ, ニューラルネットワークから得られる幾何学と, よりコンパクトな神経テクスチャ表現を最適化する。
論文 参考訳(メタデータ) (2023-05-26T17:59:21Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。