論文の概要: EdgeNeRF: Edge-Guided Regularization for Neural Radiance Fields from Sparse Views
- arxiv url: http://arxiv.org/abs/2601.01431v1
- Date: Sun, 04 Jan 2026 08:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.343925
- Title: EdgeNeRF: Edge-Guided Regularization for Neural Radiance Fields from Sparse Views
- Title(参考訳): EdgeNeRF: 疎視野からのニューラルラジアンスフィールドのためのエッジガイド型正規化
- Authors: Weiqi Yu, Yiyang Yao, Lin He, Jianming Lv,
- Abstract要約: エッジガイド付きスパースビュー3D再構成アルゴリズムであるEdgeNeRFを提案する。
LLFFデータセットとDTUデータセットの実験は、EdgeNeRFの優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 7.782302084998247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) achieve remarkable performance in dense multi-view scenarios, but their reconstruction quality degrades significantly under sparse inputs due to geometric artifacts. Existing methods utilize global depth regularization to mitigate artifacts, leading to the loss of geometric boundary details. To address this problem, we propose EdgeNeRF, an edge-guided sparse-view 3D reconstruction algorithm. Our method leverages the prior that abrupt changes in depth and normals generate edges. Specifically, we first extract edges from input images, then apply depth and normal regularization constraints to non-edge regions, enhancing geometric consistency while preserving high-frequency details at boundaries. Experiments on LLFF and DTU datasets demonstrate EdgeNeRF's superior performance, particularly in retaining sharp geometric boundaries and suppressing artifacts. Additionally, the proposed edge-guided depth regularization module can be seamlessly integrated into other methods in a plug-and-play manner, significantly improving their performance without substantially increasing training time. Code is available at https://github.com/skyhigh404/edgenerf.
- Abstract(参考訳): ニューラルレージアンス場(NeRF)は密集した多視点シナリオにおいて顕著な性能を発揮するが、その再構成品質は幾何学的アーティファクトによるスパース入力下で著しく低下する。
既存の手法では、大域的な深さ規則化を利用してアーティファクトを緩和し、幾何学的境界の詳細が失われる。
この問題に対処するため,エッジガイド付きスパースビュー3D再構成アルゴリズムであるEdgeNeRFを提案する。
提案手法では, 急激な深度変化と正常度がエッジを生成することを活用する。
具体的には、入力画像からエッジを抽出し、次に深さと正規正規化制約を非エッジ領域に適用し、境界における高周波の詳細を保存しながら、幾何的整合性を向上する。
LLFFデータセットとDTUデータセットの実験では、EdgeNeRFの優れたパフォーマンス、特に鋭い幾何学的境界を維持し、アーティファクトを抑制することが示されている。
さらに,提案したエッジ誘導深度正規化モジュールは,プラグアンドプレイ方式で他の手法にシームレスに統合することができ,トレーニング時間を著しく増加させることなく性能を大幅に向上させることができる。
コードはhttps://github.com/skyhigh404/edgenerf.comで入手できる。
関連論文リスト
- DET-GS: Depth- and Edge-Aware Regularization for High-Fidelity 3D Gaussian Splatting [5.759434800012218]
3D Gaussian Splatting (3DGS) は、効率的かつ高忠実な新規なビュー合成の分野において重要な進歩を示している。
既存の手法はしばしば非局所的な深さ正規化に依存しており、微細な構造を捉えることができない。
本稿では,3次元ガウス平滑化のための深度とエッジ認識の統一正規化フレームワークであるDET-GSを提案する。
論文 参考訳(メタデータ) (2025-08-06T05:37:26Z) - Revisiting Depth Representations for Feed-Forward 3D Gaussian Splatting [57.43483622778394]
本稿では,事前学習した変圧器によって予測される点マップに基づく新しい正規化損失PM-Lossを紹介する。
改良された深度マップにより,様々なアーキテクチャやシーンのフィードフォワード3DGSを大幅に改善する。
論文 参考訳(メタデータ) (2025-06-05T17:58:23Z) - 3D Neural Edge Reconstruction [61.10201396044153]
本研究では,線と曲線に焦点をあてて3次元エッジ表現を学習する新しい手法であるEMAPを紹介する。
多視点エッジマップから無符号距離関数(UDF)の3次元エッジ距離と方向を暗黙的に符号化する。
この神経表現の上に、推定されたエッジ点とその方向から3次元エッジを頑健に抽象化するエッジ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:23:51Z) - SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [136.15885067858298]
本研究では、空間的に一貫した幾何フィルタリング機構と周波数誘導幾何正規化戦略により強化された特徴マッチングに基づくスパース幾何正規化モジュールを提案する。
実験により, SGCNeRFは, LLFFおよびDTUにおけるPSNRの0.7dBの改善により, 優れた幾何整合性を実現し, かつFreeNeRFを超えていることが示された。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - DN-Splatter: Depth and Normal Priors for Gaussian Splatting and Meshing [19.437747560051566]
カラー画像の勾配に基づく適応的な深度損失を提案し、様々なベースライン上での深度推定と新しいビュー合成結果を改善した。
我々の単純かつ効果的な正則化技術はガウス表現からの直接メッシュ抽出を可能にし、屋内シーンのより物理的に正確な再構築を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:00:31Z) - NEF: Neural Edge Fields for 3D Parametric Curve Reconstruction from
Multi-view Images [18.303674194874457]
キャリブレーションされた多視点画像から物体の3次元特徴曲線を再構成する問題について検討する。
ニューラルエッジ場(NEF)と呼ばれる3次元エッジの密度分布を表すニューラル暗黙フィールドを学習する。
NEFは、所定のビューで2次元エッジマップを描画するビューベースのレンダリングロスで最適化され、そのビューの画像から抽出された接地トラスエッジマップと比較される。
論文 参考訳(メタデータ) (2023-03-14T06:45:13Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - GeoNet++: Iterative Geometric Neural Network with Edge-Aware Refinement
for Joint Depth and Surface Normal Estimation [204.13451624763735]
本研究では,エッジアウェア・リファインメント(GeoNet++)を用いた幾何ニューラルネットワークを提案し,単一の画像から深さと表面正規写像の両方を共同で予測する。
geonet++は、強い3d一貫性と鋭い境界を持つ深さと表面の正常を効果的に予測する。
画素単位の誤差/精度を評価することに焦点を当てた現在の測定値とは対照的に、3DGMは予測深度が高品質な3D表面の正常を再構築できるかどうかを測定する。
論文 参考訳(メタデータ) (2020-12-13T06:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。