論文の概要: StructNeRF: Neural Radiance Fields for Indoor Scenes with Structural
Hints
- arxiv url: http://arxiv.org/abs/2209.05277v1
- Date: Mon, 12 Sep 2022 14:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:54:29.416714
- Title: StructNeRF: Neural Radiance Fields for Indoor Scenes with Structural
Hints
- Title(参考訳): StructNeRF: 構造ヒントを有する屋内シーンのためのニューラルラジアンス場
- Authors: Zheng Chen, Chen Wang, Yuan-Chen Guo, Song-Hai Zhang
- Abstract要約: StructNeRFは、スパース入力を持つ屋内シーンのための新しいビュー合成のソリューションである。
本手法は,外部データに付加的なトレーニングを加えることなく,NeRFの幾何とビュー合成性能を向上する。
- 参考スコア(独自算出の注目度): 23.15914545835831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) achieve photo-realistic view synthesis with
densely captured input images. However, the geometry of NeRF is extremely
under-constrained given sparse views, resulting in significant degradation of
novel view synthesis quality. Inspired by self-supervised depth estimation
methods, we propose StructNeRF, a solution to novel view synthesis for indoor
scenes with sparse inputs. StructNeRF leverages the structural hints naturally
embedded in multi-view inputs to handle the unconstrained geometry issue in
NeRF. Specifically, it tackles the texture and non-texture regions
respectively: a patch-based multi-view consistent photometric loss is proposed
to constrain the geometry of textured regions; for non-textured ones, we
explicitly restrict them to be 3D consistent planes. Through the dense
self-supervised depth constraints, our method improves both the geometry and
the view synthesis performance of NeRF without any additional training on
external data. Extensive experiments on several real-world datasets demonstrate
that StructNeRF surpasses state-of-the-art methods for indoor scenes with
sparse inputs both quantitatively and qualitatively.
- Abstract(参考訳): ニューラルレージアンス場(NeRF)は、高密度に撮像された入力画像を用いて光リアルなビュー合成を実現する。
しかし,NeRFの形状はスパースビューによって非常に制約が低く,新規なビュー合成品質が著しく低下する。
自己教師付き深度推定法に着想を得たSructNeRFを提案する。
StructNeRFは、自然にマルチビュー入力に埋め込まれた構造的ヒントを利用して、NeRFの制約のない幾何学的問題に対処する。
具体的には、テクスチャ領域と非テクスチャ領域にそれぞれ取り組む: テクスチャ領域の幾何学を制約するために、パッチベースのマルチビュー整合光度損失を提案する; 非テクスチャ領域では、それらを3次元一貫した平面として明示的に制限する。
本手法は,高密度自己監督深度制約により,外部データに付加的な訓練を加えることなく,NeRFの幾何およびビュー合成性能を向上する。
いくつかの実世界のデータセットに関する広範囲な実験により、structnerfは、量的にも質的にもまばらな入力を持つ屋内シーンの最先端の手法を上回っていることが示されている。
関連論文リスト
- SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [106.0057551634008]
FreeNeRFは暗黙の幾何正規化を統合することでこの制限を克服しようとする。
新しい研究は、新しい特徴マッチングに基づくスパース幾何正規化モジュールを導入する。
モジュールは、高周波キーポイントをピンポイントすることで、詳細の完全性を保護する。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - DaRF: Boosting Radiance Fields from Sparse Inputs with Monocular Depth
Adaptation [31.655818586634258]
我々は,少数の実世界の画像を用いて,強靭なNeRF再構成を実現する,D"aRF"と呼ばれる新しいフレームワークを提案する。
我々のフレームワークは、視界と視界の両面において、NeRF表現に先立って、MDEネットワークの強力な幾何学を課している。
さらに、パッチワイドスケールシフトフィッティングと幾何蒸留により、単分子深さのあいまいさを克服する。
論文 参考訳(メタデータ) (2023-05-30T16:46:41Z) - NeRFVS: Neural Radiance Fields for Free View Synthesis via Geometry
Scaffolds [60.1382112938132]
室内における自由ナビゲーションを可能にする新しいニューラル放射場(NeRF)法であるNeRFVSを提案する。
NeRFは、トレーニングビューと大きく異なる新規ビューに苦しむ一方で、入力ビューと同様の新規ビューの画像のレンダリングにおいて、印象的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-13T06:40:08Z) - Improving Neural Radiance Fields with Depth-aware Optimization for Novel
View Synthesis [12.3338393483795]
SfMNeRFは,新規な視点の合成と3次元シーン形状の再構成を行う手法である。
SfMNeRFは、エピポーラ性、光度整合性、深さの滑らかさ、および3Dシーン構造を明示的に再構成するためにマッチ位置制約を用いる。
2つの公開データセットの実験では、SfMNeRFが最先端のアプローチを上回ることが示されている。
論文 参考訳(メタデータ) (2023-04-11T13:37:17Z) - SCADE: NeRFs from Space Carving with Ambiguity-Aware Depth Estimates [16.344734292989504]
SCADEは、スパースで制約のない入力ビューにおけるNeRF再構成品質を改善する新しい技術である。
本研究では,各視点に対して,深度推定の連続的マルチモーダル分布を予測する新しい手法を提案する。
実験により,本手法はスパースビューから高忠実度ノベルビューの合成を可能にすることが示された。
論文 参考訳(メタデータ) (2023-03-23T18:00:07Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - GARF:Geometry-Aware Generalized Neural Radiance Field [47.76524984421343]
本稿では,GADS(Geometry-Aware Generalized Neural Radiance Field)戦略を用いたGARF(Geometry-Aware Generalized Neural Radiance Field)を提案する。
筆者らのフレームワークは,画素スケールと幾何学スケールの両方において,わずかに入力画像で見えないシーンを推測する。
屋内および屋外のデータセットの実験では、GARFはレンダリング品質と3次元幾何推定を改善しながら、サンプルを25%以上削減している。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。