論文の概要: NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw
Images
- arxiv url: http://arxiv.org/abs/2111.13679v1
- Date: Fri, 26 Nov 2021 18:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 18:20:14.326673
- Title: NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw
Images
- Title(参考訳): 暗黒領域のNeRF:ノイズの多い原画像からの高ダイナミックレンジビュー合成
- Authors: Ben Mildenhall, Peter Hedman, Ricardo Martin-Brualla, Pratul
Srinivasan, Jonathan T. Barron
- Abstract要約: NeRFは、提案した入力画像のコレクションから高品質な新規ビュー合成技術である。
シーンのフルダイナミックレンジを保ちながら,直線的生画像を直接トレーニングするためにNeRFを変更した。
NRFは生雑音のゼロ平均分布に対して非常に頑健であることを示す。
- 参考スコア(独自算出の注目度): 37.917974033687464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) is a technique for high quality novel view
synthesis from a collection of posed input images. Like most view synthesis
methods, NeRF uses tonemapped low dynamic range (LDR) as input; these images
have been processed by a lossy camera pipeline that smooths detail, clips
highlights, and distorts the simple noise distribution of raw sensor data. We
modify NeRF to instead train directly on linear raw images, preserving the
scene's full dynamic range. By rendering raw output images from the resulting
NeRF, we can perform novel high dynamic range (HDR) view synthesis tasks. In
addition to changing the camera viewpoint, we can manipulate focus, exposure,
and tonemapping after the fact. Although a single raw image appears
significantly more noisy than a postprocessed one, we show that NeRF is highly
robust to the zero-mean distribution of raw noise. When optimized over many
noisy raw inputs (25-200), NeRF produces a scene representation so accurate
that its rendered novel views outperform dedicated single and multi-image deep
raw denoisers run on the same wide baseline input images. As a result, our
method, which we call RawNeRF, can reconstruct scenes from extremely noisy
images captured in near-darkness.
- Abstract(参考訳): neural radiance fields (nerf) は、ポーズ入力画像の集合から高品質の新しい視点合成のための技術である。
多くのビュー合成法と同様に、NeRFはトーンマップされた低ダイナミックレンジ(LDR)を入力として使用しており、これらの画像は細部をスムーズなカメラパイプラインによって処理され、生センサデータの単純なノイズ分布を歪めている。
シーンのフルダイナミックレンジを保ちながら、線形生画像を直接トレーニングするためにNeRFを変更する。
生成したNeRFからの生画像のレンダリングにより、新しいハイダイナミックレンジ(HDR)ビュー合成タスクを実行することができる。
カメラの視点を変えるだけでなく、フォーカス、露出、トネマッピングも操作できます。
単一生画像は後処理画像よりもかなりノイズが多いが,NRFは生ノイズのゼロ平均分布に対して非常に堅牢であることを示す。
多くのノイズの多い生の入力(25-200)に最適化されると、NeRFは、レンダリングされた新規ビューが専用シングルおよびマルチイメージの生のデノイザよりも優れたシーン表現を、同じ広いベースライン入力イメージ上で実行できるように生成する。
その結果,我々がrawnerfと呼ぶ手法は,暗さに近い極端にノイズの多い画像からシーンを再現することができる。
関連論文リスト
- Bright-NeRF:Brightening Neural Radiance Field with Color Restoration from Low-light Raw Images [8.679462472714942]
本稿では,低照度原画像から高輝度・高画質の放射場を教師なしで学習するBright-NeRFを提案する。
本手法は,色復元,デノナイズ,新規なビュー合成の促進を同時に実現している。
論文 参考訳(メタデータ) (2024-12-19T05:55:18Z) - LuSh-NeRF: Lighting up and Sharpening NeRFs for Low-light Scenes [38.59630957057759]
我々は,手持ちの低照度画像群からクリーンでシャープなNeRFを再構成できるLush-NeRFという新しいモデルを提案する。
LuSh-NeRFはシーン表現からノイズを分離するScene-Noise Decompositionモジュールを含む。
実験により、LuSh-NeRFは既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T07:22:31Z) - Toward Efficient Deep Blind RAW Image Restoration [56.41827271721955]
我々は、深部ブラインドRAW復元モデルをトレーニングするための、新しい現実的な劣化パイプラインを設計する。
私たちのパイプラインでは、リアルなセンサーノイズ、動きのぼかし、カメラの揺れ、その他の一般的な劣化について検討しています。
パイプラインと複数のセンサーのデータで訓練されたモデルは、ノイズとぼやけをうまく低減し、異なるカメラから撮影されたRAW画像の細部を復元する。
論文 参考訳(メタデータ) (2024-09-26T18:34:37Z) - CF-NeRF: Camera Parameter Free Neural Radiance Fields with Incremental
Learning [23.080474939586654]
我々は、新しいアンダーラインカメラパラメーターUnderlinefree Neural Radiance Field (CF-NeRF)を提案する。
CF-NeRFは3次元表現を漸進的に再構成し、動きからインクリメンタル構造にインスパイアされたカメラパラメータを復元する。
その結果、CF-NeRFはカメラ回転に頑健であり、事前情報や制約を伴わずに最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2023-12-14T09:09:31Z) - Lighting up NeRF via Unsupervised Decomposition and Enhancement [40.89359754872889]
そこで我々は,Low-Light NeRF(LLNeRF)と呼ばれる新しい手法を提案し,シーン表現を強化し,sRGB低照度画像から直接ノーマルライトノベルビューを合成する。
低照度シーンからの低ダイナミックレンジ(8ビット/チャネル)画像の集合を考慮し、適切な照明と鮮明な色と細部を持つ新しいビュー画像を作成することができる。
論文 参考訳(メタデータ) (2023-07-20T07:46:34Z) - BAD-NeRF: Bundle Adjusted Deblur Neural Radiance Fields [9.744593647024253]
我々は、新しいバンドルを調整した deblur Neural Radiance Fields (BAD-NeRF) を提案する。
BAD-NeRFは、激しい動きのぼやけた画像や不正確なカメラのポーズに対して堅牢である。
提案手法は、運動ぼかし画像の物理画像形成過程をモデル化し、NeRFのパラメータを共同で学習する。
論文 参考訳(メタデータ) (2022-11-23T10:53:37Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。