論文の概要: DeclutterNeRF: Generative-Free 3D Scene Recovery for Occlusion Removal
- arxiv url: http://arxiv.org/abs/2504.04679v1
- Date: Mon, 07 Apr 2025 02:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:11:18.829720
- Title: DeclutterNeRF: Generative-Free 3D Scene Recovery for Occlusion Removal
- Title(参考訳): DeclutterNeRF: 閉塞除去のための生成不要な3次元シーン回復
- Authors: Wanzhou Liu, Zhexiao Xiong, Xinyu Li, Nathan Jacobs,
- Abstract要約: DeclutterNeRFは,前駆体を含まない閉塞除去法である。
DeclutterNeRFは、提案したDeclutterSetの最先端メソッドよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 12.381139489267495
- License:
- Abstract: Recent novel view synthesis (NVS) techniques, including Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have greatly advanced 3D scene reconstruction with high-quality rendering and realistic detail recovery. Effectively removing occlusions while preserving scene details can further enhance the robustness and applicability of these techniques. However, existing approaches for object and occlusion removal predominantly rely on generative priors, which, despite filling the resulting holes, introduce new artifacts and blurriness. Moreover, existing benchmark datasets for evaluating occlusion removal methods lack realistic complexity and viewpoint variations. To address these issues, we introduce DeclutterSet, a novel dataset featuring diverse scenes with pronounced occlusions distributed across foreground, midground, and background, exhibiting substantial relative motion across viewpoints. We further introduce DeclutterNeRF, an occlusion removal method free from generative priors. DeclutterNeRF introduces joint multi-view optimization of learnable camera parameters, occlusion annealing regularization, and employs an explainable stochastic structural similarity loss, ensuring high-quality, artifact-free reconstructions from incomplete images. Experiments demonstrate that DeclutterNeRF significantly outperforms state-of-the-art methods on our proposed DeclutterSet, establishing a strong baseline for future research.
- Abstract(参考訳): ニューラル・レージアン・フィールド(NeRF)や3Dガウス・スプレイティング(3DGS)など,最近の新しいビュー・シンセサイザー(NVS)技術は,高品質なレンダリングとリアルなディテール・リカバリによる3Dシーンの大幅な高度化を実現している。
シーンの詳細を保存しながら隠蔽を効果的に除去することは、これらの技術の堅牢性と適用性をさらに高めることができる。
しかし、既存の対象と排他的排除のアプローチは、結果として生じる穴を埋めるにも拘わらず、新しいアーティファクトと曖昧さを導入する、生成的先行に大きく依存している。
さらに、閉塞除去法を評価するための既存のベンチマークデータセットには、現実的な複雑さと視点のバリエーションが欠如している。
DeclutterSetは,前景,中景,背景に明瞭なオクルージョンが分布する多様なシーンを特徴とする,視点にまたがるかなりの相対的な動きを示す新しいデータセットである。
DeclutterNeRFは前駆体を含まない閉塞除去法である。
DeclutterNeRFは、学習可能なカメラパラメータの同時多視点最適化、オクルージョンアニーリング正規化を導入し、説明可能な確率的構造的類似性損失を採用し、不完全な画像から高品質でアーチファクトフリーな再構成を保証する。
実験により,DeclutterNeRFは提案したDeclutterSetの最先端手法を著しく上回り,今後の研究の強力なベースラインを確立した。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Robust 3D Gaussian Splatting for Novel View Synthesis in Presence of Distractors [44.55317154371679]
3D Gaussian Splattingは素晴らしいビュー合成結果を示している。
静的なシーンの入力データを汚染する動的オブジェクトに対して脆弱である。
提案手法は,多種多様な気晴らしに対して堅牢であり,気晴らしシーンのレンダリング品質を著しく向上することを示す。
論文 参考訳(メタデータ) (2024-08-21T15:21:27Z) - Drantal-NeRF: Diffusion-Based Restoration for Anti-aliasing Neural Radiance Field [10.225323718645022]
Neural Radiance Field (NeRF) が生成したレンダリングにおけるアーティファクトのエイリアス化は、長く続くが複雑な問題である。
拡散を利用した抗エイリアス性神経放射場(Drantal-NeRF)の復元法を提案する。
論文 参考訳(メタデータ) (2024-07-10T08:32:13Z) - From Chaos to Clarity: 3DGS in the Dark [28.232432162734437]
未処理の生画像のノイズは、3次元シーン表現の精度を損なう。
3D Gaussian Splatting (3DGS)はこのノイズに特に影響を受けやすい。
ノイズの多い生画像からHDR 3DGSを再構成するための,新しい自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T15:00:16Z) - RaFE: Generative Radiance Fields Restoration [38.602849644666165]
NeRF(Neural Radiance Fields)は、新しいビュー合成と3次元再構成において大きな可能性を証明している。
従来のNeRF修復法は、回復の一般性を無視して、特定の劣化タイプに合わせて調整されている。
本稿では,様々な種類の劣化に対して適用可能な一般放射場復元パイプラインであるRaFEを提案する。
論文 参考訳(メタデータ) (2024-04-04T17:59:50Z) - Robust 3D Shape Reconstruction in Zero-Shot from a Single Image in the Wild [22.82439286651921]
本研究では,3次元形状復元に特化して設計された分割と再構成を統合した統合回帰モデルを提案する。
また、オブジェクト、オクローダ、バックグラウンドの幅広いバリエーションをシミュレートするスケーラブルなデータ合成パイプラインも導入しています。
我々の合成データのトレーニングにより,提案モデルは実世界の画像に対して最先端のゼロショット結果が得られる。
論文 参考訳(メタデータ) (2024-03-21T16:40:10Z) - Clean-NeRF: Reformulating NeRF to account for View-Dependent
Observations [67.54358911994967]
本稿では,複雑なシーンにおける3次元再構成と新しいビューレンダリングのためのクリーンネRFを提案する。
clean-NeRFはプラグインとして実装することができ、既存のNeRFベースのメソッドを追加入力なしですぐに利用することができる。
論文 参考訳(メタデータ) (2023-03-26T12:24:31Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。