論文の概要: Improving Neural Radiance Field using Near-Surface Sampling with Point
Cloud Generation
- arxiv url: http://arxiv.org/abs/2310.04152v1
- Date: Fri, 6 Oct 2023 10:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 18:51:01.352338
- Title: Improving Neural Radiance Field using Near-Surface Sampling with Point
Cloud Generation
- Title(参考訳): 点雲発生による近面サンプリングによるニューラルラジアンス場の改善
- Authors: Hye Bin Yoo and Hyun Min Han and Sung Soo Hwang and Il Yong Chun
- Abstract要約: 本稿では,NeRFのレンダリング品質を向上させるため,表面近傍のサンプリングフレームワークを提案する。
新たな視点の深度情報を得るために,3次元点雲生成法と点雲から投影された深度を簡易に精錬する方法を提案する。
- 参考スコア(独自算出の注目度): 7.10734752120062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance field (NeRF) is an emerging view synthesis method that
samples points in a three-dimensional (3D) space and estimates their existence
and color probabilities. The disadvantage of NeRF is that it requires a long
training time since it samples many 3D points. In addition, if one samples
points from occluded regions or in the space where an object is unlikely to
exist, the rendering quality of NeRF can be degraded. These issues can be
solved by estimating the geometry of 3D scene. This paper proposes a
near-surface sampling framework to improve the rendering quality of NeRF. To
this end, the proposed method estimates the surface of a 3D object using depth
images of the training set and sampling is performed around there only. To
obtain depth information on a novel view, the paper proposes a 3D point cloud
generation method and a simple refining method for projected depth from a point
cloud. Experimental results show that the proposed near-surface sampling NeRF
framework can significantly improve the rendering quality, compared to the
original NeRF and a state-of-the-art depth-based NeRF method. In addition, one
can significantly accelerate the training time of a NeRF model with the
proposed near-surface sampling framework.
- Abstract(参考訳): neural radiance field (nerf) は、3次元空間内の点をサンプリングし、それらの存在と色確率を推定する新しい視点合成法である。
NeRFの欠点は、多くの3Dポイントをサンプリングするため、長い訓練時間を必要とすることである。
さらに、1つのサンプルが隠蔽領域から、あるいは物体が存在しないような空間へ向けられた場合、NeRFのレンダリング品質を劣化させることができる。
これらの問題は3次元シーンの形状を推定することで解決できる。
本稿では,NeRFのレンダリング品質を向上させるため,表面近傍のサンプリングフレームワークを提案する。
そこで本研究では,トレーニングセットの奥行き画像を用いて3次元物体の表面を推定し,その周辺のみをサンプリングする手法を提案する。
新たな視点の深度情報を得るために,3次元点雲生成法と点雲から投影された深度を簡易に精製する方法を提案する。
実験結果から,提案手法は従来のNeRF法や最先端深度に基づくNeRF法と比較して,レンダリング品質を著しく向上させることができることがわかった。
また,提案手法により,NeRFモデルのトレーニング時間を大幅に短縮することができる。
関連論文リスト
- Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - OmniNeRF: Hybriding Omnidirectional Distance and Radiance fields for
Neural Surface Reconstruction [22.994952933576684]
神経放射場(NeRF)における地中破壊研究は、3Dオブジェクトの表現品質を劇的に改善した。
後年の研究では、TSDF(truncated signed distance field)を構築することでNeRFを改善したが、3D再構成における表面のぼやけた問題に悩まされている。
本研究では,3次元形状表現の新たな手法であるOmniNeRFを提案することにより,この表面の曖昧さに対処する。
論文 参考訳(メタデータ) (2022-09-27T14:39:23Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Point-NeRF: Point-based Neural Radiance Fields [39.38262052015925]
Point-NeRFは、放射場をモデル化するために、関連するニューラル特徴を持つニューラル3Dポイントクラウドを使用する。
レイマーキングベースのレンダリングパイプラインにおいて、シーン表面近傍の神経点特徴を集約することで効率よくレンダリングすることができる。
Point-NeRFは、他の3次元再構成手法と組み合わせて、新しいプルーニング・成長機構を通じてエラーやアウトレーラを処理することができる。
論文 参考訳(メタデータ) (2022-01-21T18:59:20Z) - NeuSample: Neural Sample Field for Efficient View Synthesis [129.10351459066501]
本稿では,ニューラルサンプル場を命名する軽量モジュールを提案する。
提案したサンプルフィールドは、線をサンプル分布にマッピングし、点座標に変換し、ボリュームレンダリングのために放射場に供給することができる。
我々はNeuSampleが高速な推論速度を保ちながら、NeRFよりも優れたレンダリング品質を実現することを示す。
論文 参考訳(メタデータ) (2021-11-30T16:43:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。