論文の概要: Improving Geometric Consistency for 360-Degree Neural Radiance Fields in Indoor Scenarios
- arxiv url: http://arxiv.org/abs/2503.13710v1
- Date: Mon, 17 Mar 2025 20:30:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:21.997713
- Title: Improving Geometric Consistency for 360-Degree Neural Radiance Fields in Indoor Scenarios
- Title(参考訳): 室内シナリオにおける360度ニューラルラジアンスフィールドの幾何学的整合性の改善
- Authors: Iryna Repinetska, Anna Hilsmann, Peter Eisert,
- Abstract要約: フォトリアリスティックレンダリングと新しいビュー合成は、人間とコンピュータのインタラクションタスクにおいて重要な役割を果たす。
NeRFは大規模で低テクスチャな地域でしばしば苦労し、「フローター」として知られる曇りのアーティファクトを生み出している。
困難で低機能な領域におけるレンダリング品質を向上させるために,新しい奥行き損失関数を導入する。
- 参考スコア(独自算出の注目度): 3.5229503563299915
- License:
- Abstract: Photo-realistic rendering and novel view synthesis play a crucial role in human-computer interaction tasks, from gaming to path planning. Neural Radiance Fields (NeRFs) model scenes as continuous volumetric functions and achieve remarkable rendering quality. However, NeRFs often struggle in large, low-textured areas, producing cloudy artifacts known as ''floaters'' that reduce scene realism, especially in indoor environments with featureless architectural surfaces like walls, ceilings, and floors. To overcome this limitation, prior work has integrated geometric constraints into the NeRF pipeline, typically leveraging depth information derived from Structure from Motion or Multi-View Stereo. Yet, conventional RGB-feature correspondence methods face challenges in accurately estimating depth in textureless regions, leading to unreliable constraints. This challenge is further complicated in 360-degree ''inside-out'' views, where sparse visual overlap between adjacent images further hinders depth estimation. In order to address these issues, we propose an efficient and robust method for computing dense depth priors, specifically tailored for large low-textured architectural surfaces in indoor environments. We introduce a novel depth loss function to enhance rendering quality in these challenging, low-feature regions, while complementary depth-patch regularization further refines depth consistency across other areas. Experiments with Instant-NGP on two synthetic 360-degree indoor scenes demonstrate improved visual fidelity with our method compared to standard photometric loss and Mean Squared Error depth supervision.
- Abstract(参考訳): フォトリアリスティックレンダリングと新しいビュー合成は、ゲームからパスプランニングまで、人間とコンピュータのインタラクションタスクにおいて重要な役割を果たす。
ニューラル・ラジアンス・フィールド(NeRF)は連続的な体積関数としてシーンをモデル化し、優れたレンダリング品質を実現する。
しかし、NeRFは大規模で低テクスチャな地域で苦戦し、特に壁や天井、床といった特徴のない建築面を持つ屋内環境において、シーンリアリズムを減少させる「フローター」と呼ばれる曇りの人工物を生み出している。
この制限を克服するために、以前の研究は幾何的制約をNeRFパイプラインに統合し、典型的にはMotion from StructureやMulti-View Stereoから派生した深度情報を活用する。
しかし,従来のRGB機能対応手法では,テクスチャレス領域の深さを正確に推定することが困難であり,信頼性の低い制約が生じる。
この課題は、360度 'inside-out' ビューにおいてさらに複雑であり、隣接する画像間の疎視的なオーバーラップが深度推定を妨げている。
これらの問題に対処するため, 室内環境における大規模低テクスチャ構造に特化して, 密集深度を計算するための効率的で堅牢な手法を提案する。
我々は,これらの困難で低機能な領域におけるレンダリング品質を向上させるために,新しい深度損失関数を導入し,相補的な深度パッチ正規化は,他の領域における深度一貫性をさらに改善する。
2つの合成360度屋内シーンにおけるInstant-NGPを用いた実験では,標準光度損失と平均正方形誤差深度監視と比較して視力の向上が見られた。
関連論文リスト
- Deep Neural Networks for Accurate Depth Estimation with Latent Space Features [0.0]
本研究では,深部畳み込みニューラルネットワークにおける潜時空間特徴を利用した新しい深度推定フレームワークを提案する。
提案モデルでは,2つのエンコーダ・デコーダアーキテクチャを特徴とし,色から深度への変換と深度への変換が可能である。
フレームワークはNYU Depth V2データセットを使用して徹底的にテストされている。
論文 参考訳(メタデータ) (2025-02-17T13:11:35Z) - DN-Splatter: Depth and Normal Priors for Gaussian Splatting and Meshing [19.437747560051566]
カラー画像の勾配に基づく適応的な深度損失を提案し、様々なベースライン上での深度推定と新しいビュー合成結果を改善した。
我々の単純かつ効果的な正則化技術はガウス表現からの直接メッシュ抽出を可能にし、屋内シーンのより物理的に正確な再構築を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:00:31Z) - PSDF: Prior-Driven Neural Implicit Surface Learning for Multi-view
Reconstruction [31.768161784030923]
このフレームワークは、事前訓練されたMVSネットワークとNISRモデルに固有の内部幾何学的先駆体から外部幾何学的先駆体を利用する。
Tanks and Templesデータセットの実験は、PSDFが複雑な制御されていないシーンで最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-01-23T13:30:43Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for Enhanced Indoor View Synthesis [73.50359502037232]
VoxNeRFは、ニューラル室内再構成と新しいビュー合成の質と効率を高めるための新しいアプローチである。
本稿では,最も関連性の高い領域に計算資源を割り当てる効率的なボクセル誘導サンプリング手法を提案する。
私たちのアプローチは、ScanNetとScanNet++に関する広範な実験で検証されています。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - ConsistentNeRF: Enhancing Neural Radiance Fields with 3D Consistency for
Sparse View Synthesis [99.06490355990354]
本研究では,深度情報を利用して画素間のマルチビューとシングルビューの3D整合性を調整する手法であるConsistentNeRFを提案する。
提案手法は,PSNRが94%,SSIMが31%,LPIPSが31%,疎視条件下でのモデル性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T15:18:01Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - StructNeRF: Neural Radiance Fields for Indoor Scenes with Structural
Hints [23.15914545835831]
StructNeRFは、スパース入力を持つ屋内シーンのための新しいビュー合成のソリューションである。
本手法は,外部データに付加的なトレーニングを加えることなく,NeRFの幾何とビュー合成性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T14:33:27Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。