論文の概要: NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw
Images
- arxiv url: http://arxiv.org/abs/2111.13679v1
- Date: Fri, 26 Nov 2021 18:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 18:20:14.326673
- Title: NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw
Images
- Title(参考訳): 暗黒領域のNeRF:ノイズの多い原画像からの高ダイナミックレンジビュー合成
- Authors: Ben Mildenhall, Peter Hedman, Ricardo Martin-Brualla, Pratul
Srinivasan, Jonathan T. Barron
- Abstract要約: NeRFは、提案した入力画像のコレクションから高品質な新規ビュー合成技術である。
シーンのフルダイナミックレンジを保ちながら,直線的生画像を直接トレーニングするためにNeRFを変更した。
NRFは生雑音のゼロ平均分布に対して非常に頑健であることを示す。
- 参考スコア(独自算出の注目度): 37.917974033687464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) is a technique for high quality novel view
synthesis from a collection of posed input images. Like most view synthesis
methods, NeRF uses tonemapped low dynamic range (LDR) as input; these images
have been processed by a lossy camera pipeline that smooths detail, clips
highlights, and distorts the simple noise distribution of raw sensor data. We
modify NeRF to instead train directly on linear raw images, preserving the
scene's full dynamic range. By rendering raw output images from the resulting
NeRF, we can perform novel high dynamic range (HDR) view synthesis tasks. In
addition to changing the camera viewpoint, we can manipulate focus, exposure,
and tonemapping after the fact. Although a single raw image appears
significantly more noisy than a postprocessed one, we show that NeRF is highly
robust to the zero-mean distribution of raw noise. When optimized over many
noisy raw inputs (25-200), NeRF produces a scene representation so accurate
that its rendered novel views outperform dedicated single and multi-image deep
raw denoisers run on the same wide baseline input images. As a result, our
method, which we call RawNeRF, can reconstruct scenes from extremely noisy
images captured in near-darkness.
- Abstract(参考訳): neural radiance fields (nerf) は、ポーズ入力画像の集合から高品質の新しい視点合成のための技術である。
多くのビュー合成法と同様に、NeRFはトーンマップされた低ダイナミックレンジ(LDR)を入力として使用しており、これらの画像は細部をスムーズなカメラパイプラインによって処理され、生センサデータの単純なノイズ分布を歪めている。
シーンのフルダイナミックレンジを保ちながら、線形生画像を直接トレーニングするためにNeRFを変更する。
生成したNeRFからの生画像のレンダリングにより、新しいハイダイナミックレンジ(HDR)ビュー合成タスクを実行することができる。
カメラの視点を変えるだけでなく、フォーカス、露出、トネマッピングも操作できます。
単一生画像は後処理画像よりもかなりノイズが多いが,NRFは生ノイズのゼロ平均分布に対して非常に堅牢であることを示す。
多くのノイズの多い生の入力(25-200)に最適化されると、NeRFは、レンダリングされた新規ビューが専用シングルおよびマルチイメージの生のデノイザよりも優れたシーン表現を、同じ広いベースライン入力イメージ上で実行できるように生成する。
その結果,我々がrawnerfと呼ぶ手法は,暗さに近い極端にノイズの多い画像からシーンを再現することができる。
関連論文リスト
- CF-NeRF: Camera Parameter Free Neural Radiance Fields with Incremental
Learning [23.080474939586654]
我々は、新しいアンダーラインカメラパラメーターUnderlinefree Neural Radiance Field (CF-NeRF)を提案する。
CF-NeRFは3次元表現を漸進的に再構成し、動きからインクリメンタル構造にインスパイアされたカメラパラメータを復元する。
その結果、CF-NeRFはカメラ回転に頑健であり、事前情報や制約を伴わずに最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2023-12-14T09:09:31Z) - Re-Nerfing: Improving Novel Views Synthesis through Novel Views Synthesis [80.3686833921072]
Re-Nerfingは単純で汎用的なマルチステージデータ拡張アプローチである。
利用可能なビューでNeRFをトレーニングした後、最適化されたNeRFを使用して、元のビューに関する擬似ビューを合成します。
また、原画像と疑似ビューの両方が不確実領域を隠蔽する第2のNeRFを訓練する。
論文 参考訳(メタデータ) (2023-12-04T18:56:08Z) - USB-NeRF: Unrolling Shutter Bundle Adjusted Neural Radiance Fields [7.671858441929298]
ニューラルラジアンスフィールド(USB-NeRF)のアンローリングシャッターバンドルについて提案する。
USB-NeRFは、回転シャッター歪みを補正し、NeRFの枠組みの下で同時に正確なカメラモーション軌跡を復元することができる。
我々のアルゴリズムは、RS画像のシーケンスから高忠実度高フレームレートのグローバルシャッタービデオの復元にも利用できる。
論文 参考訳(メタデータ) (2023-10-04T09:51:58Z) - Lighting up NeRF via Unsupervised Decomposition and Enhancement [40.89359754872889]
そこで我々は,Low-Light NeRF(LLNeRF)と呼ばれる新しい手法を提案し,シーン表現を強化し,sRGB低照度画像から直接ノーマルライトノベルビューを合成する。
低照度シーンからの低ダイナミックレンジ(8ビット/チャネル)画像の集合を考慮し、適切な照明と鮮明な色と細部を持つ新しいビュー画像を作成することができる。
論文 参考訳(メタデータ) (2023-07-20T07:46:34Z) - Contrastive Learning for Low-light Raw Denoising [2.929093799984392]
ノイズの多い画像やクリーンな画像の情報を活用するために,新たにDCR(Denoising contrast regularization)を導入する。
特徴空間では、DCRはクリーンな画像に近づき、ノイズの多い画像から遠く離れている。
さらに、我々はWnetと呼ばれる機能埋め込みネットワークを構築し、このネットワークは高周波情報を抽出するのにより効果的である。
論文 参考訳(メタデータ) (2023-05-05T08:13:53Z) - BAD-NeRF: Bundle Adjusted Deblur Neural Radiance Fields [9.744593647024253]
我々は、新しいバンドルを調整した deblur Neural Radiance Fields (BAD-NeRF) を提案する。
BAD-NeRFは、激しい動きのぼやけた画像や不正確なカメラのポーズに対して堅牢である。
提案手法は、運動ぼかし画像の物理画像形成過程をモデル化し、NeRFのパラメータを共同で学習する。
論文 参考訳(メタデータ) (2022-11-23T10:53:37Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。