論文の概要: Optimize the Unseen -- Fast NeRF Cleanup with Free Space Prior
- arxiv url: http://arxiv.org/abs/2412.12772v1
- Date: Tue, 17 Dec 2024 10:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:58:38.503738
- Title: Optimize the Unseen -- Fast NeRF Cleanup with Free Space Prior
- Title(参考訳): 空きスペースで高速なNeRFクリーニングを最適化する
- Authors: Leo Segre, Shai Avidan,
- Abstract要約: フローター」は、特にトレーニングカメラで見えない地域では、新しいビュークオリティを低下させる。
高速でポストホックなNeRFクリーニング手法として,自由空間優先を強制することで,そのようなアーティファクトを除去する手法を提案する。
提案手法は既存のNeRFクリーンアップモデルに匹敵するが, 推定時間では2.5倍高速である。
- 参考スコア(独自算出の注目度): 12.308036453869033
- License:
- Abstract: Neural Radiance Fields (NeRF) have advanced photorealistic novel view synthesis, but their reliance on photometric reconstruction introduces artifacts, commonly known as "floaters". These artifacts degrade novel view quality, especially in areas unseen by the training cameras. We present a fast, post-hoc NeRF cleanup method that eliminates such artifacts by enforcing our Free Space Prior, effectively minimizing floaters without disrupting the NeRF's representation of observed regions. Unlike existing approaches that rely on either Maximum Likelihood (ML) estimation to fit the data or a complex, local data-driven prior, our method adopts a Maximum-a-Posteriori (MAP) approach, selecting the optimal model parameters under a simple global prior assumption that unseen regions should remain empty. This enables our method to clean artifacts in both seen and unseen areas, enhancing novel view quality even in challenging scene regions. Our method is comparable with existing NeRF cleanup models while being 2.5x faster in inference time, requires no additional memory beyond the original NeRF, and achieves cleanup training in less than 30 seconds. Our code will be made publically available.
- Abstract(参考訳): ニューラル・ラディアンス・フィールド(Neural Radiance Fields、NeRF)は先進的なフォトリアリスティック・ノベル・ビュー・シンセサイザー(英語版)であるが、光度再構成への依存は「フローター(floaters)」として知られるアーティファクトを導入している。
これらのアーティファクトは、特にトレーニングカメラで見えない領域において、新しいビュー品質を低下させる。
我々は,我々の自由空間優先を強制し,観測領域のNeRF表現を損なうことなく,フローターを効果的に最小化することにより,そのようなアーティファクトを除去する高速でポストホックなNeRF浄化方法を提案する。
本手法は,データに適合する最大類似度(ML)推定,あるいは局所的なデータ駆動型事前推定に頼っている既存手法と異なり,最適モデルパラメータを単純な大域的前提の下で選択し,未確認領域を空のままにしておく。
これにより,目に見える領域と見えない領域の両方のアーティファクトの浄化が可能となり,挑戦的なシーンにおいても,新しいビュークオリティが向上する。
提案手法は既存のNeRFクリーンアップモデルに匹敵するが, 推定時間では2.5倍高速であり, 元のNeRF以上のメモリを必要とせず, 30秒未満でクリーンアップトレーニングを行う。
私たちのコードは公開されます。
関連論文リスト
- Surface-Centric Modeling for High-Fidelity Generalizable Neural Surface Reconstruction [29.26047429432185]
SuRFは、マッチングフィールドに基づいた新しいリージョンスペーシフィケーションを組み込んだ、新しいフレームワークである。
我々の知る限り、この手法はエンドツーエンドのスパーシフィケーションを実現する最初の教師なしの手法である。
実験により, 再現は高品質な細部を呈し, 新たな最先端性能を達成できることが確認された。
論文 参考訳(メタデータ) (2024-09-05T15:48:02Z) - ExtraNeRF: Visibility-Aware View Extrapolation of Neural Radiance Fields with Diffusion Models [60.48305533224092]
ExtraNeRFはニューラル・ラジアンス・フィールド(NeRF)によって処理される視野を外挿する新しい方法である
主な考え方は、NeRFをシーン固有の細部までモデル化し、拡散モデルを利用して観測データを超えて外挿することです。
論文 参考訳(メタデータ) (2024-06-10T09:44:06Z) - ProvNeRF: Modeling per Point Provenance in NeRFs as a Stochastic Field [52.09661042881063]
テキストフィールドとしてNeRFのbfprovenance(可視な位置)をモデル化する手法を提案する。
我々は、NeRF最適化におけるポイントごとの精度のモデリングにより、新しいビュー合成と不確実性推定の改善につながる情報により、モデルが強化されることを示す。
論文 参考訳(メタデータ) (2024-01-16T06:19:18Z) - SimpleNeRF: Regularizing Sparse Input Neural Radiance Fields with
Simpler Solutions [6.9980855647933655]
NeRFによって推定される深さの監視は、より少ないビューで効果的にトレーニングするのに役立つ。
我々は、位置エンコーディングとビュー依存放射能の役割を探求することによって、より単純な解決を促進する拡張モデルの設計を行う。
上記の正規化を用いて、2つの一般的なデータセット上での最先端のビュー合成性能を実現する。
論文 参考訳(メタデータ) (2023-09-07T18:02:57Z) - Clean-NeRF: Reformulating NeRF to account for View-Dependent
Observations [67.54358911994967]
本稿では,複雑なシーンにおける3次元再構成と新しいビューレンダリングのためのクリーンネRFを提案する。
clean-NeRFはプラグインとして実装することができ、既存のNeRFベースのメソッドを追加入力なしですぐに利用することができる。
論文 参考訳(メタデータ) (2023-03-26T12:24:31Z) - Self-NeRF: A Self-Training Pipeline for Few-Shot Neural Radiance Fields [17.725937326348994]
入力ビューの少ない放射場を反復的に洗練する自己進化型NeRFであるSelf-NeRFを提案する。
各イテレーションでは、予測された色や、前回のイテレーションからモデルが生成した歪んだピクセルで、目に見えないビューをラベル付けします。
これらの拡張された擬似ビューは、NeRFの性能を低下させる色やワープアーティファクトのインプレクションによって悩まされる。
論文 参考訳(メタデータ) (2023-03-10T08:22:36Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。