論文の概要: Volumetric Surfaces: Representing Fuzzy Geometries with Multiple Meshes
- arxiv url: http://arxiv.org/abs/2409.02482v1
- Date: Wed, 4 Sep 2024 07:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 20:02:12.297612
- Title: Volumetric Surfaces: Representing Fuzzy Geometries with Multiple Meshes
- Title(参考訳): 体積曲面:多重メッシュによるファジィジオメトリの表現
- Authors: Stefano Esposito, Anpei Chen, Christian Reiser, Samuel Rota Bulò, Lorenzo Porzi, Katja Schwarz, Christian Richardt, Michael Zollhöfer, Peter Kontschieder, Andreas Geiger,
- Abstract要約: 高品質なリアルタイムビュー合成法は、ボリュームレンダリング、スプレイティング、サーフェスレンダリングに基づいている。
本稿では,サンプリング位置の個数が小さく,有界なリアルタイムビューのための新しい表現を提案する。
提案手法は,ローエンドおよびモバイル機器におけるボリュームベースおよびスプラッティングベース手法よりも高いフレームレートを達成しつつ,困難なファジィオブジェクトを表現可能であることを示す。
- 参考スコア(独自算出の注目度): 59.17785932398617
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-quality real-time view synthesis methods are based on volume rendering, splatting, or surface rendering. While surface-based methods generally are the fastest, they cannot faithfully model fuzzy geometry like hair. In turn, alpha-blending techniques excel at representing fuzzy materials but require an unbounded number of samples per ray (P1). Further overheads are induced by empty space skipping in volume rendering (P2) and sorting input primitives in splatting (P3). These problems are exacerbated on low-performance graphics hardware, e.g. on mobile devices. We present a novel representation for real-time view synthesis where the (P1) number of sampling locations is small and bounded, (P2) sampling locations are efficiently found via rasterization, and (P3) rendering is sorting-free. We achieve this by representing objects as semi-transparent multi-layer meshes, rendered in fixed layer order from outermost to innermost. We model mesh layers as SDF shells with optimal spacing learned during training. After baking, we fit UV textures to the corresponding meshes. We show that our method can represent challenging fuzzy objects while achieving higher frame rates than volume-based and splatting-based methods on low-end and mobile devices.
- Abstract(参考訳): 高品質なリアルタイムビュー合成法は、ボリュームレンダリング、スプレイティング、サーフェスレンダリングに基づいている。
表面ベースの手法は一般的に最速であるが、毛髪のようなファジィ幾何学を忠実にモデル化することはできない。
逆に、アルファブレンディング技術はファジィ材料を表現するのに優れているが、1光線当たりのサンプルの無拘束数を必要とする(P1)。
さらに、ボリュームレンダリングにおける空の空間スキップ(P2)とスプレイティングにおける入力プリミティブのソート(P3)により、オーバーヘッドが増大する(P3)。
これらの問題は、低パフォーマンスのグラフィックスハードウェア、例えばモバイルデバイスでさらに悪化している。
本稿では, (P1) 個のサンプリング位置が小さく, 有界であり, (P2) サンプリング位置はラスタライズにより効率的に検出され, (P3) レンダリングはソートフリーであるリアルタイムビュー合成のための新しい表現を提案する。
オブジェクトを半透明な多層メッシュとして表現し、最外側から最内側の固定層オーダーでレンダリングする。
トレーニング中に学習した最適な間隔でメッシュ層をSDFシェルとしてモデル化する。
焼いた後、紫外線テクスチャを対応するメッシュに適合させる。
提案手法は,ローエンドおよびモバイル機器におけるボリュームベースおよびスプラッティングベース手法よりも高いフレームレートを達成しつつ,困難なファジィオブジェクトを表現可能であることを示す。
関連論文リスト
- CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - RayDF: Neural Ray-surface Distance Fields with Multi-view Consistency [10.55497978011315]
我々は、レイベースニューラルネットワークとして3次元形状を定式化するためのRayDFと呼ばれる新しいフレームワークを提案する。
本手法は,800×800の深度画像を描画する座標法よりも1000倍高速な高速化を実現する。
論文 参考訳(メタデータ) (2023-10-30T15:22:50Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Generative Occupancy Fields for 3D Surface-Aware Image Synthesis [123.11969582055382]
GOF(Generative Occupancy Fields)は、生成放射場に基づく新しいモデルである。
GOFは高品質な画像を3D整合性で合成し、コンパクトで滑らかな物体表面を同時に学習することができる。
論文 参考訳(メタデータ) (2021-11-01T14:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。