論文の概要: A Probability-guided Sampler for Neural Implicit Surface Rendering
- arxiv url: http://arxiv.org/abs/2506.08619v1
- Date: Tue, 10 Jun 2025 09:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.164874
- Title: A Probability-guided Sampler for Neural Implicit Surface Rendering
- Title(参考訳): ニューラルインシシデント表面レンダリングのための確率誘導型サンプリング器
- Authors: Gonçalo Dias Pais, Valter Piedade, Moitreya Chatterjee, Marcus Greiff, Pedro Miraldo,
- Abstract要約: ニューラル・ラジアンス・フィールド(NeRF)のいくつかの変種は、合成画像の精度と3Dシーン/オブジェクトの表面再構成を大幅に改善した。
重要な特徴は、可能なすべての入力データ、具体的には射影線に沿ったすべてのピクセルとポテンシャル3Dポイントでニューラルネットワークをトレーニングできないことである。
本稿では、前景の暗黙的な表面表現を活用し、3次元画像投影空間における確率密度関数をモデル化し、興味のある領域に向けて光線をよりターゲット的にサンプリングする。
- 参考スコア(独自算出の注目度): 12.233362977312947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several variants of Neural Radiance Fields (NeRFs) have significantly improved the accuracy of synthesized images and surface reconstruction of 3D scenes/objects. In all of these methods, a key characteristic is that none can train the neural network with every possible input data, specifically, every pixel and potential 3D point along the projection rays due to scalability issues. While vanilla NeRFs uniformly sample both the image pixels and 3D points along the projection rays, some variants focus only on guiding the sampling of the 3D points along the projection rays. In this paper, we leverage the implicit surface representation of the foreground scene and model a probability density function in a 3D image projection space to achieve a more targeted sampling of the rays toward regions of interest, resulting in improved rendering. Additionally, a new surface reconstruction loss is proposed for improved performance. This new loss fully explores the proposed 3D image projection space model and incorporates near-to-surface and empty space components. By integrating our novel sampling strategy and novel loss into current state-of-the-art neural implicit surface renderers, we achieve more accurate and detailed 3D reconstructions and improved image rendering, especially for the regions of interest in any given scene.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)のいくつかの変種は、合成画像の精度と3Dシーン/オブジェクトの表面再構成を大幅に改善した。
これらの方法のすべてにおいて、キーとなる特徴は、可能なすべての入力データ、具体的には、拡張性の問題のために投影線に沿ったすべてのピクセルと潜在的な3Dポイントでニューラルネットワークをトレーニングできないことである。
バニラNeRFは投影光線に沿った画像ピクセルと3D点の両方を均一にサンプリングするが、いくつかの変種は投影光線に沿った3D点のサンプリングを導くことだけに焦点を当てている。
本稿では、前景の暗黙的な表面表現を活用し、3次元画像投影空間における確率密度関数をモデル化し、興味のある領域への光線をより標的にサンプリングし、レンダリングを改善する。
また,新しい表面再構成損失が提案され,性能が向上した。
この新たな損失は、提案された3次元画像投影空間モデルを完全に探求し、表面近傍と空の空間成分を組み込んだものである。
新たなサンプリング戦略と新たな損失を現在の最先端のニューラル暗示表面レンダラーに統合することにより、より正確で詳細な3D再構成と画像レンダリングの改善を実現し、特に特定のシーンに関心のある領域において。
関連論文リスト
- Improving Neural Radiance Field using Near-Surface Sampling with Point Cloud Generation [6.506009070668646]
本稿では,NeRFのレンダリング品質を向上させるため,表面近傍のサンプリングフレームワークを提案する。
新たな視点の深度情報を得るために,3次元点雲生成法と点雲から投影された深度を簡易に精錬する方法を提案する。
論文 参考訳(メタデータ) (2023-10-06T10:55:34Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Neural Poisson: Indicator Functions for Neural Fields [25.41908065938424]
3次元形状の符号付き距離場表現(SDF)は顕著な進展を示した。
本稿では,3次元シーンのニューラルフィールド表現のための新しいパラダイムを提案する。
提案手法は, 合成3次元シーンデータと実写3次元シーンデータの両方に対して, 最先端の再構築性能を示す。
論文 参考訳(メタデータ) (2022-11-25T17:28:22Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。