論文の概要: RobustNeRF: Ignoring Distractors with Robust Losses
- arxiv url: http://arxiv.org/abs/2302.00833v2
- Date: Fri, 26 Jul 2024 19:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 01:26:28.713023
- Title: RobustNeRF: Ignoring Distractors with Robust Losses
- Title(参考訳): RobustNeRF:ロバスト損失によるディトラクタの無視
- Authors: Sara Sabour, Suhani Vora, Daniel Duckworth, Ivan Krasin, David J. Fleet, Andrea Tagliasacchi,
- Abstract要約: 我々は、最適化問題の解として、NeRFトレーニングのためのロバストな推定形式を提唱し、トレーニングデータのイントラクタをモデリングする。
本手法は, シーンから外れ値を取り除き, ベースライン, 合成シーン, 現実シーンを改良する。
- 参考スコア(独自算出の注目度): 32.2329459013342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural radiance fields (NeRF) excel at synthesizing new views given multi-view, calibrated images of a static scene. When scenes include distractors, which are not persistent during image capture (moving objects, lighting variations, shadows), artifacts appear as view-dependent effects or 'floaters'. To cope with distractors, we advocate a form of robust estimation for NeRF training, modeling distractors in training data as outliers of an optimization problem. Our method successfully removes outliers from a scene and improves upon our baselines, on synthetic and real-world scenes. Our technique is simple to incorporate in modern NeRF frameworks, with few hyper-parameters. It does not assume a priori knowledge of the types of distractors, and is instead focused on the optimization problem rather than pre-processing or modeling transient objects. More results on our page https://robustnerf.github.io.
- Abstract(参考訳): 静的シーンのマルチビュー・キャリブレーション画像が与えられたニューラルレイディアンス場(NeRF)は、新しいビューの合成に優れる。
イメージキャプチャー(移動物体、照明のバリエーション、影)の間に永続的でない邪魔物を含む場合、人工物はビュー依存効果または「フローター」として現れる。
注意散らしに対処するため,我々はNeRFトレーニングのための頑健な推定形式を提案し,最適化問題の外れ値としてトレーニングデータ中の注意散らしをモデル化する。
本手法は, シーンから外れ値を取り除き, ベースライン, 合成シーン, 現実シーンを改良する。
我々の手法は、ハイパーパラメータが少ない現代のNeRFフレームワークに組み込むのが簡単である。
イントラクタの種類に関する事前知識を前提とせず、代わりに過渡オブジェクトの事前処理やモデリングよりも最適化の問題に重点を置いている。
私たちのページ https://robustnerf.github.io.com でさらなる結果が得られます。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NeRF-HuGS: Improved Neural Radiance Fields in Non-static Scenes Using Heuristics-Guided Segmentation [76.02304140027087]
我々は,HuGS(Huristics-Guided harmonily)という新しいパラダイムを提案する。
HuGSは、手作り合成の強さと最先端セグメンテーションモデルを組み合わせることで、過渡的イントラクタからの静的シーンの分離を大幅に強化する。
非定常場面で訓練されたNeRFの過渡的乱れを緩和する手法の優位性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-26T09:42:28Z) - Sharp-NeRF: Grid-based Fast Deblurring Neural Radiance Fields Using
Sharpness Prior [4.602333448154979]
Sharp-NeRFは、30分以内のトレーニングで入力されたぼやけた画像からクリーンでシャープな画像をレンダリングするテクニックである。
我々は、ぼやけた画像からなるベンチマーク実験を行い、全参照および非参照メトリクスを評価した。
提案手法では,鮮明な色と細かな細部を持つシャープな新鮮なビューを描画する。
論文 参考訳(メタデータ) (2024-01-01T17:48:38Z) - Self-NeRF: A Self-Training Pipeline for Few-Shot Neural Radiance Fields [17.725937326348994]
入力ビューの少ない放射場を反復的に洗練する自己進化型NeRFであるSelf-NeRFを提案する。
各イテレーションでは、予測された色や、前回のイテレーションからモデルが生成した歪んだピクセルで、目に見えないビューをラベル付けします。
これらの拡張された擬似ビューは、NeRFの性能を低下させる色やワープアーティファクトのインプレクションによって悩まされる。
論文 参考訳(メタデータ) (2023-03-10T08:22:36Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - BAD-NeRF: Bundle Adjusted Deblur Neural Radiance Fields [9.744593647024253]
我々は、新しいバンドルを調整した deblur Neural Radiance Fields (BAD-NeRF) を提案する。
BAD-NeRFは、激しい動きのぼやけた画像や不正確なカメラのポーズに対して堅牢である。
提案手法は、運動ぼかし画像の物理画像形成過程をモデル化し、NeRFのパラメータを共同で学習する。
論文 参考訳(メタデータ) (2022-11-23T10:53:37Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。