論文の概要: VMesh: Hybrid Volume-Mesh Representation for Efficient View Synthesis
- arxiv url: http://arxiv.org/abs/2303.16184v1
- Date: Tue, 28 Mar 2023 17:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 14:04:30.808096
- Title: VMesh: Hybrid Volume-Mesh Representation for Efficient View Synthesis
- Title(参考訳): VMesh: 効率的なビュー合成のためのハイブリッドボリュームメシュ表現
- Authors: Yuan-Chen Guo, Yan-Pei Cao, Chen Wang, Yu He, Ying Shan, Xiaohu Qie,
Song-Hai Zhang
- Abstract要約: 本稿では,補助的なスパースボリュームとともに,テクスチャ化されたメッシュを持つオブジェクトを表現した,ハイブリッドなボリューム・メシュ表現VMeshを提案する。
VMeshはオブジェクトのマルチビューイメージから取得でき、2K 60FPSで高忠実度な一般消費者デバイスにレンダリングする。
- 参考スコア(独自算出の注目度): 31.52438192597056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the emergence of neural radiance fields (NeRFs), view synthesis quality
has reached an unprecedented level. Compared to traditional mesh-based assets,
this volumetric representation is more powerful in expressing scene geometry
but inevitably suffers from high rendering costs and can hardly be involved in
further processes like editing, posing significant difficulties in combination
with the existing graphics pipeline. In this paper, we present a hybrid
volume-mesh representation, VMesh, which depicts an object with a textured mesh
along with an auxiliary sparse volume. VMesh retains the advantages of
mesh-based assets, such as efficient rendering, compact storage, and easy
editing, while also incorporating the ability to represent subtle geometric
structures provided by the volumetric counterpart. VMesh can be obtained from
multi-view images of an object and renders at 2K 60FPS on common consumer
devices with high fidelity, unleashing new opportunities for real-time
immersive applications.
- Abstract(参考訳): ニューラル放射場(NeRF)の出現により、ビュー合成品質は前例のない水準に達した。
従来のメッシュベースの資産と比較して、このボリューム表現はシーンの幾何表現においてより強力であるが、必然的に高いレンダリングコストを被り、編集のようなさらなるプロセスにほとんど関わらず、既存のグラフィックパイプラインと組み合わせてかなりの困難をもたらす。
本稿では,テクスチャメッシュのある物体を補助的スパースボリュームとともに表現する,ハイブリッドなボリュームメッシュ表現であるvmeshを提案する。
VMeshは、効率的なレンダリング、コンパクトストレージ、簡単な編集など、メッシュベースのアセットの利点を保ちながら、ボリュームが提供する微妙な幾何学構造を表現する能力も備えている。
VMeshはオブジェクトのマルチビューイメージから取得でき、一般的なコンシューマデバイス上で2K 60FPSで高速でレンダリングし、リアルタイム没入型アプリケーションに新たな機会をもたらすことができる。
関連論文リスト
- FaceFolds: Meshed Radiance Manifolds for Efficient Volumetric Rendering of Dynamic Faces [21.946327323788275]
動的顔の3Dレンダリングは難しい問題である。
本稿では,アクターの動的顔パフォーマンスの高品質なレンダリングを可能にする新しい表現を提案する。
論文 参考訳(メタデータ) (2024-04-22T00:44:13Z) - Voxel-Mesh Hybrid Representation for Real-Time View Synthesis [5.528874948395173]
本稿では、ビュー合成のためのハイブリッドレンダリングにおいて、ボクセルとメッシュの両方のコンポーネントをシームレスに組み合わせたVoshというハイブリッド表現を提案する。
Voshはメッシュコンポーネントを通じて単純な幾何学とテクスチャを備えた高速なレンダリングシーンに優れており、同時にvoxelコンポーネントを活用することで複雑な領域における高品質なレンダリングを可能にしている。
Voshの柔軟性は、ハイブリッド比を調整する機能によって示され、フレキシブルな使用量に基づいて、レンダリング品質とスピードのバランスを制御できるようになる。
論文 参考訳(メタデータ) (2024-03-11T08:28:51Z) - High-Quality Mesh Blendshape Generation from Face Videos via Neural Inverse Rendering [15.009484906668737]
メッシュをベースとしたブレンドシェイプリグを,シングルあるいはスパースなマルチビュービデオから再構成する新しい手法を提案する。
実験により,シングルあるいはスパースなマルチビュービデオのフレキシブルな入力により,パーソナライズされた高忠実度ブレンドサップを再構築することを示した。
論文 参考訳(メタデータ) (2024-01-16T14:41:31Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Efficient 3D Articulated Human Generation with Layered Surface Volumes [131.3802971483426]
我々は,デジタル人間のための新しい3次元オブジェクト表現として,層状表面体積(LSV)を導入する。
LSVは、従来のテンプレートの周囲の複数のテクスチャ層を使用して人体を表現する。
2Dジェネレータは個々のレイヤのRGBAテクスチャを合成することを学ぶ。
論文 参考訳(メタデータ) (2023-07-11T17:50:02Z) - NeMF: Inverse Volume Rendering with Neural Microflake Field [30.15831015284247]
本稿では,面ベースレンダリングとは対照的に,逆ボリュームレンダリングを提案する。
マイクロフレークボリュームを暗黙的に符号化するために座標ネットワークを採用し、エンド・ツー・エンドでネットワークをトレーニングするための微分可能なマイクロフレークボリュームを開発した。
論文 参考訳(メタデータ) (2023-04-03T08:12:18Z) - Grid-guided Neural Radiance Fields for Large Urban Scenes [146.06368329445857]
近年のアプローチでは、シーンを地理的に分割し、複数のサブNeRFを採用して各領域を個別にモデル化する手法が提案されている。
もう一つの解決策は、計算効率が良く、大きなシーンに自然にスケールできる機能グリッド表現を使用することである。
本稿では,大規模都市における高忠実度レンダリングを実現し,計算効率を向上する枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-24T13:56:45Z) - Neural Assets: Volumetric Object Capture and Rendering for Interactive
Environments [8.258451067861932]
本研究では,現実の物体を日常の環境に忠実かつ迅速に捕獲する手法を提案する。
我々は、新しい神経表現を用いて、透明な物体部品などの効果を再構築し、物体の外観を保ちます。
これにより、提案されたニューラルネットワークアセットを既存のメッシュ環境やオブジェクトとシームレスに統合することが可能になる。
論文 参考訳(メタデータ) (2022-12-12T18:55:03Z) - HVTR: Hybrid Volumetric-Textural Rendering for Human Avatars [65.82222842213577]
本稿では,任意のポーズから人間の仮想アバターを効率よく,高品質に合成するニューラルレンダリングパイプラインを提案する。
まず,人体表面の高密度UV多様体上での人間の動きを符号化する。
次に、UV多様体上の符号化情報を利用して、3次元体積表現を構成する。
論文 参考訳(メタデータ) (2021-12-19T17:34:15Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。