論文の概要: Point-NeRF: Point-based Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2201.08845v1
- Date: Fri, 21 Jan 2022 18:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:56:08.663300
- Title: Point-NeRF: Point-based Neural Radiance Fields
- Title(参考訳): 点-NeRF:点ベースニューラルラジアンス場
- Authors: Qiangeng Xu and Zexiang Xu and Julien Philip and Sai Bi and Zhixin Shu
and Kalyan Sunkavalli and Ulrich Neumann
- Abstract要約: Point-NeRFは、放射場をモデル化するために、関連するニューラル特徴を持つニューラル3Dポイントクラウドを使用する。
レイマーキングベースのレンダリングパイプラインにおいて、シーン表面近傍の神経点特徴を集約することで効率よくレンダリングすることができる。
Point-NeRFは、他の3次元再構成手法と組み合わせて、新しいプルーニング・成長機構を通じてエラーやアウトレーラを処理することができる。
- 参考スコア(独自算出の注目度): 39.38262052015925
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Volumetric neural rendering methods like NeRF generate high-quality view
synthesis results but are optimized per-scene leading to prohibitive
reconstruction time. On the other hand, deep multi-view stereo methods can
quickly reconstruct scene geometry via direct network inference. Point-NeRF
combines the advantages of these two approaches by using neural 3D point
clouds, with associated neural features, to model a radiance field. Point-NeRF
can be rendered efficiently by aggregating neural point features near scene
surfaces, in a ray marching-based rendering pipeline. Moreover, Point-NeRF can
be initialized via direct inference of a pre-trained deep network to produce a
neural point cloud; this point cloud can be finetuned to surpass the visual
quality of NeRF with 30X faster training time. Point-NeRF can be combined with
other 3D reconstruction methods and handles the errors and outliers in such
methods via a novel pruning and growing mechanism.
- Abstract(参考訳): NeRFのようなボリュームニューラルレンダリング手法は、高品質なビュー合成結果を生成するが、シーンごとの最適化により、不規則な再構成時間に繋がる。
一方,深層多視点ステレオ手法は,直接ネットワーク推論によるシーン形状の再構築を迅速に行うことができる。
Point-NeRFは、これらの2つのアプローチの利点を、ニューラル3Dポイントクラウドと関連するニューラル特徴を組み合わせて、放射場をモデル化する。
レイマーチングベースのレンダリングパイプラインにおいて、シーン表面近傍のニューラルポイント特徴を集約することにより、ポイントナーフを効率的にレンダリングすることができる。
さらに、ポイント-NeRFは、事前訓練されたディープネットワークの直接推論を通じて初期化してニューラルポイントクラウドを生成することができ、このポイントクラウドは、30倍高速なトレーニング時間でNeRFの視覚的品質を超えるように微調整することができる。
ポイントナーフは、他の3d再構成法と組み合わせることができ、新しい刈り取りと成長メカニズムを介して、そのような方法のエラーや外れ値を処理する。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - Improving Neural Radiance Field using Near-Surface Sampling with Point Cloud Generation [6.506009070668646]
本稿では,NeRFのレンダリング品質を向上させるため,表面近傍のサンプリングフレームワークを提案する。
新たな視点の深度情報を得るために,3次元点雲生成法と点雲から投影された深度を簡易に精錬する方法を提案する。
論文 参考訳(メタデータ) (2023-10-06T10:55:34Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - SurfelNeRF: Neural Surfel Radiance Fields for Online Photorealistic
Reconstruction of Indoor Scenes [17.711755550841385]
SLAMに基づく手法は、3Dシーンの形状をリアルタイムで段階的に再構成することができるが、フォトリアリスティックな結果を描画することはできない。
NeRFベースの手法は、将来有望な新しいビュー合成結果を生成し、その長いオフライン最適化時間と幾何的制約の欠如は、オンライン入力を効率的に処理する上での課題となる。
本稿では、フレキシブルでスケーラブルなニューラルサーベイル表現を用いて、入力画像から幾何学的属性と外観特徴を抽出するSurfelNeRFを紹介する。
論文 参考訳(メタデータ) (2023-04-18T13:11:49Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。