論文の概要: NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild
- arxiv url: http://arxiv.org/abs/2405.18715v2
- Date: Sun, 2 Jun 2024 14:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 13:50:03.116897
- Title: NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild
- Title(参考訳): NeRF on-the-go: Exploiting Uncertainity for Distractor-free NeRFs in the Wild
- Authors: Weining Ren, Zihan Zhu, Boyang Sun, Jiaqi Chen, Marc Pollefeys, Songyou Peng,
- Abstract要約: 我々は,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的な方法であるNeRF On-the-goを紹介する。
本手法は,最先端技術よりも大幅に向上したことを示す。
- 参考スコア(独自算出の注目度): 55.154625718222995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRFs) have shown remarkable success in synthesizing photorealistic views from multi-view images of static scenes, but face challenges in dynamic, real-world environments with distractors like moving objects, shadows, and lighting changes. Existing methods manage controlled environments and low occlusion ratios but fall short in render quality, especially under high occlusion scenarios. In this paper, we introduce NeRF On-the-go, a simple yet effective approach that enables the robust synthesis of novel views in complex, in-the-wild scenes from only casually captured image sequences. Delving into uncertainty, our method not only efficiently eliminates distractors, even when they are predominant in captures, but also achieves a notably faster convergence speed. Through comprehensive experiments on various scenes, our method demonstrates a significant improvement over state-of-the-art techniques. This advancement opens new avenues for NeRF in diverse and dynamic real-world applications.
- Abstract(参考訳): ニューラルネットワーク(Neural Radiance Fields、NeRF)は、静的なシーンのマルチビュー画像からフォトリアリスティックなビューを合成することに成功したが、動いた物体、影、照明変更などの邪魔をする動的な現実世界環境では課題に直面している。
既存の手法は、制御された環境と低い閉塞率を管理するが、特に高い閉塞シナリオ下では、レンダリング品質が不足する。
本稿では,手軽にキャプチャされた画像列のみから,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的なNeRF On-the-goを提案する。
不確実性に陥りつつも,本手法は捕集に支配的であったとしても,効率的に散逸を除去するだけでなく,顕著に高速な収束速度を実現する。
様々な場面における総合的な実験を通して,本手法は最先端技術よりも顕著に改善されていることを示す。
この進歩は、多様な動的現実世界のアプリケーションにおいて、NeRFの新しい道を開く。
関連論文リスト
- IE-NeRF: Inpainting Enhanced Neural Radiance Fields in the Wild [15.86621086993995]
本稿では,ニューラル・ラジアンス・フィールド(NeRF)と野生の無制御写真を用いて,リアルな新しいビューを合成するための新しいアプローチを提案する。
textitInpainting Enhanced NeRF, あるいは我々のフレームワークは, 画像インパインティング技術からインスピレーションを得て, 従来のNeRFを強化する。
論文 参考訳(メタデータ) (2024-07-15T13:10:23Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NeRF-HuGS: Improved Neural Radiance Fields in Non-static Scenes Using Heuristics-Guided Segmentation [76.02304140027087]
我々は,HuGS(Huristics-Guided harmonily)という新しいパラダイムを提案する。
HuGSは、手作り合成の強さと最先端セグメンテーションモデルを組み合わせることで、過渡的イントラクタからの静的シーンの分離を大幅に強化する。
非定常場面で訓練されたNeRFの過渡的乱れを緩和する手法の優位性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-26T09:42:28Z) - DyBluRF: Dynamic Neural Radiance Fields from Blurry Monocular Video [18.424138608823267]
動きのぼかしに影響を受ける単眼ビデオから鋭い新しいビューを合成する動的放射場アプローチであるDyBluRFを提案する。
入力画像中の動きのぼかしを考慮し、シーン内のカメラ軌跡とオブジェクト離散コサイン変換(DCT)トラジェクトリを同時にキャプチャする。
論文 参考訳(メタデータ) (2024-03-15T08:48:37Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Strata-NeRF : Neural Radiance Fields for Stratified Scenes [29.58305675148781]
現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらすかもしれません。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、高忠実度ビューを合成する。
論文 参考訳(メタデータ) (2023-08-20T18:45:43Z) - Lighting up NeRF via Unsupervised Decomposition and Enhancement [40.89359754872889]
そこで我々は,Low-Light NeRF(LLNeRF)と呼ばれる新しい手法を提案し,シーン表現を強化し,sRGB低照度画像から直接ノーマルライトノベルビューを合成する。
低照度シーンからの低ダイナミックレンジ(8ビット/チャネル)画像の集合を考慮し、適切な照明と鮮明な色と細部を持つ新しいビュー画像を作成することができる。
論文 参考訳(メタデータ) (2023-07-20T07:46:34Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo
Collections [47.9463405062868]
本研究では,非構造化画像のみを用いて,複雑なシーンの新たなビューを合成する学習的手法を提案する。
我々は、多層パーセプトロンの重みを利用して、シーンの密度と色を3次元座標の関数としてモデル化するニューラルレージアンス場(NeRF)を構築した。
我々はこれらの問題に対処するために、NeRFの一連の拡張を導入し、インターネットから取得した非構造化画像からの正確な再構築を可能にする。
論文 参考訳(メタデータ) (2020-08-05T17:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。