論文の概要: 3D Reconstruction and New View Synthesis of Indoor Environments based on
a Dual Neural Radiance Field
- arxiv url: http://arxiv.org/abs/2401.14726v1
- Date: Fri, 26 Jan 2024 09:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:42:07.512809
- Title: 3D Reconstruction and New View Synthesis of Indoor Environments based on
a Dual Neural Radiance Field
- Title(参考訳): デュアルニューラル放射場に基づく室内環境の3次元再構成と新しいビュー合成
- Authors: Zhenyu Bao, Guibiao Liao, Zhongyuan Zhao, Kanglin Liu, Qing Li,
Guoping Qiu
- Abstract要約: 我々は,高品質な幾何再構成とビューレンダリングを実現するために,デュアルニューラル放射場(Du-NeRF)を開発した。
Du-NeRFの革新的な特徴の1つは、ビュー非依存のコンポーネントを密度場から切り離し、SDFフィールドの学習プロセスを監督するためにラベルとして使用することである。
- 参考スコア(独自算出の注目度): 18.765061404046374
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Simultaneously achieving 3D reconstruction and new view synthesis for indoor
environments has widespread applications but is technically very challenging.
State-of-the-art methods based on implicit neural functions can achieve
excellent 3D reconstruction results, but their performances on new view
synthesis can be unsatisfactory. The exciting development of neural radiance
field (NeRF) has revolutionized new view synthesis, however, NeRF-based models
can fail to reconstruct clean geometric surfaces. We have developed a dual
neural radiance field (Du-NeRF) to simultaneously achieve high-quality geometry
reconstruction and view rendering. Du-NeRF contains two geometric fields, one
derived from the SDF field to facilitate geometric reconstruction and the other
derived from the density field to boost new view synthesis. One of the
innovative features of Du-NeRF is that it decouples a view-independent
component from the density field and uses it as a label to supervise the
learning process of the SDF field. This reduces shape-radiance ambiguity and
enables geometry and color to benefit from each other during the learning
process. Extensive experiments demonstrate that Du-NeRF can significantly
improve the performance of novel view synthesis and 3D reconstruction for
indoor environments and it is particularly effective in constructing areas
containing fine geometries that do not obey multi-view color consistency.
- Abstract(参考訳): 屋内環境における3次元再構成と新しいビュー合成の同時実現は、広く応用されているが、技術的には極めて困難である。
暗黙的ニューラルファンクションに基づく最先端の手法は優れた3次元再構成結果が得られるが、新しいビュー合成の性能は不十分である。
ニューラル放射場(NeRF)のエキサイティングな開発は、新しいビュー合成に革命をもたらしたが、NeRFベースのモデルは、きれいな幾何学的表面を再構成することができない。
本研究では,高画質形状再構成とビューレンダリングを同時に実現する2重ニューラルネットワークラジアンスフィールド(du-nerf)を開発した。
Du-NeRFは2つの幾何学的場を含み、1つはSDF場から導出され、もう1つは密度場から導出され、新しいビュー合成が促進される。
Du-NeRFの革新的な特徴の1つは、ビュー非依存のコンポーネントを密度場から切り離し、SDFフィールドの学習プロセスを監督するためにラベルとして使用することである。
これにより、形状の曖昧さが減少し、学習プロセス中に幾何と色が互いに恩恵を受けることができる。
広範にわたる実験により、du-nerfは室内環境における新しい視点合成と3次元再構成の性能を著しく向上できることが示され、多視点カラー一貫性に従わないファインジオメトリを含む領域の構築に特に有効である。
関連論文リスト
- AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - High-fidelity 3D Reconstruction of Plants using Neural Radiance Field [10.245620447865456]
そこで本研究では,生産環境からの植物画像を構成する新しい植物データセットを提案する。
このデータセットは、農業の文脈におけるNeRFの利点と限界を包括的に探求することを目的とした、先駆的なイニシアチブである。
論文 参考訳(メタデータ) (2023-11-07T17:31:27Z) - BeyondPixels: A Comprehensive Review of the Evolution of Neural Radiance Fields [1.1531932979578041]
NeRF(Neural Radiance Fieldsの略)は、AIアルゴリズムを使用して2D画像から3Dオブジェクトを生成する最近のイノベーションである。
この調査は、最近のNeRFの進歩を概観し、それらのアーキテクチャ設計に従って分類する。
論文 参考訳(メタデータ) (2023-06-05T16:10:21Z) - Neural Radiance Fields (NeRFs): A Review and Some Recent Developments [0.0]
Neural Radiance Field(NeRF)は、完全に接続されたニューラルネットワークの重みの3Dシーンを表すフレームワークである。
ベースフレームワークの性能と能力を拡張する最近の開発によって、NeRFはポピュラーな研究分野になってきた。
論文 参考訳(メタデータ) (2023-04-30T03:23:58Z) - DehazeNeRF: Multiple Image Haze Removal and 3D Shape Reconstruction
using Neural Radiance Fields [56.30120727729177]
DehazeNeRFは,湿潤な環境下で頑健に動作するフレームワークとして紹介する。
提案手法は,複数視点のヘイズ除去,新しいビュー合成,既存手法が失敗する3次元形状再構成を成功させるものである。
論文 参考訳(メタデータ) (2023-03-20T18:03:32Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - NeuralUDF: Learning Unsigned Distance Fields for Multi-view
Reconstruction of Surfaces with Arbitrary Topologies [87.06532943371575]
本稿では2次元画像からボリュームレンダリングにより任意の位相で表面を再構成する新しい手法であるNeuralUDFを提案する。
本稿では,表面をUDF(Unsigned Distance Function)として表現し,ニューラルUDF表現を学習するための新しいボリュームレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-25T15:21:45Z) - UNISURF: Unifying Neural Implicit Surfaces and Radiance Fields for
Multi-View Reconstruction [61.17219252031391]
ニューラル暗黙的3D表現を用いた多視点画像から表面を再構築する新しい手法を提案する。
我々の重要な洞察は、暗黙の曲面モデルと放射場を統一的に定式化し、表面および体積のレンダリングを可能にすることである。
実験により, マスクを必要とせず, idrと同等の性能を保ちつつ, 再構成品質でnrfを上回った。
論文 参考訳(メタデータ) (2021-04-20T15:59:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。