論文の概要: Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis
- arxiv url: http://arxiv.org/abs/2402.12377v1
- Date: Mon, 19 Feb 2024 18:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 14:59:38.714899
- Title: Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis
- Title(参考訳): binary opacity grids: メッシュベースのビュー合成のための微細な幾何学的詳細をキャプチャする
- Authors: Christian Reiser, Stephan Garbin, Pratul P. Srinivasan, Dor Verbin,
Richard Szeliski, Ben Mildenhall, Jonathan T. Barron, Peter Hedman, Andreas
Geiger
- Abstract要約: 我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
- 参考スコア(独自算出の注目度): 70.40950409274312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While surface-based view synthesis algorithms are appealing due to their low
computational requirements, they often struggle to reproduce thin structures.
In contrast, more expensive methods that model the scene's geometry as a
volumetric density field (e.g. NeRF) excel at reconstructing fine geometric
detail. However, density fields often represent geometry in a "fuzzy" manner,
which hinders exact localization of the surface. In this work, we modify
density fields to encourage them to converge towards surfaces, without
compromising their ability to reconstruct thin structures. First, we employ a
discrete opacity grid representation instead of a continuous density field,
which allows opacity values to discontinuously transition from zero to one at
the surface. Second, we anti-alias by casting multiple rays per pixel, which
allows occlusion boundaries and subpixel structures to be modelled without
using semi-transparent voxels. Third, we minimize the binary entropy of the
opacity values, which facilitates the extraction of surface geometry by
encouraging opacity values to binarize towards the end of training. Lastly, we
develop a fusion-based meshing strategy followed by mesh simplification and
appearance model fitting. The compact meshes produced by our model can be
rendered in real-time on mobile devices and achieve significantly higher view
synthesis quality compared to existing mesh-based approaches.
- Abstract(参考訳): 表面ベースのビュー合成アルゴリズムは計算量が少ないため魅力的だが、しばしば薄い構造を再現するのに苦労している。
対照的に、シーンの幾何学を体積密度場(例えば、NeRF)としてモデル化するより高価な手法は、細かい幾何学的詳細を再構築するのに優れている。
しかし、密度場はしばしば「曖昧」な方法で幾何学を表し、表面の正確な局在を阻害する。
本研究では, 密度場を改良し, 薄い構造を再構成する能力を損なうことなく, 表面への収束を促す。
まず、連続密度場の代わりに離散不透明格子表現を用い、不透明値が表面でゼロから1に不連続に遷移することを可能にする。
第2に, 半透明ボクセルを用いずに咬合境界とサブピクセル構造をモデル化できる画素毎に複数の光線を鋳造することでアンチエイリアスを行う。
第3に,不透明度値の2値エントロピーを最小化し,不透明度値をトレーニング終了に向けて2値化することにより,表面形状の抽出を容易にする。
最後に,mesh simplification と appearance model fitting の次に fusion ベースのメッシュ戦略を開発した。
我々のモデルが生成したコンパクトメッシュはモバイルデバイス上でリアルタイムにレンダリングでき、既存のメッシュベースのアプローチに比べてビュー合成品質が大幅に向上する。
関連論文リスト
- Geometry Field Splatting with Gaussian Surfels [23.412129038089326]
我々は、最近の研究で提案された不透明曲面の幾何学的場を利用して、体積密度に変換することができる。
ガウス核やウェーバを体積よりも幾何場に適応させ、不透明な固体の正確な再構成を可能にする。
広範に使用されているデータセット上で再構成された3次元表面の質が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-11-26T03:07:05Z) - Volumetric Surfaces: Representing Fuzzy Geometries with Multiple Meshes [59.17785932398617]
高品質なリアルタイムビュー合成法は、ボリュームレンダリング、スプレイティング、サーフェスレンダリングに基づいている。
本稿では,サンプリング位置の個数が小さく,有界なリアルタイムビューのための新しい表現を提案する。
提案手法は,ローエンドおよびモバイル機器におけるボリュームベースおよびスプラッティングベース手法よりも高いフレームレートを達成しつつ,困難なファジィオブジェクトを表現可能であることを示す。
論文 参考訳(メタデータ) (2024-09-04T07:18:26Z) - PRS: Sharp Feature Priors for Resolution-Free Surface Remeshing [30.28380889862059]
本稿では,自動特徴検出とリメッシングのためのデータ駆動方式を提案する。
提案アルゴリズムは,Fスコアの26%,知覚値の42%がtextRMSE_textv$である。
論文 参考訳(メタデータ) (2023-11-30T12:15:45Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Neural Volumetric Mesh Generator [40.224769507878904]
新規かつ高品質なボリュームメッシュを生成することができるニューラルボリュームメッシュジェネレータ(NVMG)を提案する。
我々のパイプラインは、ランダムノイズや参照画像から、後処理なしで高品質なアーチファクトフリーのボリュームとサーフェスメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:46:51Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。