論文の概要: Seeing through Light and Darkness: Sensor-Physics Grounded Deblurring HDR NeRF from Single-Exposure Images and Events
- arxiv url: http://arxiv.org/abs/2601.15475v1
- Date: Wed, 21 Jan 2026 21:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.418602
- Title: Seeing through Light and Darkness: Sensor-Physics Grounded Deblurring HDR NeRF from Single-Exposure Images and Events
- Title(参考訳): 光と暗さを通して見る:単一露光画像と事象からのセンサ・物理学的グラウンドドブロアリングHDR NeRF
- Authors: Yunshan Qi, Lin Zhu, Nan Bao, Yifan Zhao, Jia Li,
- Abstract要約: 野生でよく見られる低ダイナミックレンジ(LDR)ぼかし画像からの新たなビュー合成は、極端な照明条件下での高ダイナミックレンジ(ブルー)と鋭い3D表現の回復に苦慮している。
単一露光でぼやけたLDR画像とそれに対応するイベントから、鋭いHDRノウハウを合成するための統合されたセンサ物理接地型NeRFフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.72024188845033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis from low dynamic range (LDR) blurry images, which are common in the wild, struggles to recover high dynamic range (HDR) and sharp 3D representations in extreme lighting conditions. Although existing methods employ event data to address this issue, they ignore the sensor-physics mismatches between the camera output and physical world radiance, resulting in suboptimal HDR and deblurring results. To cope with this problem, we propose a unified sensor-physics grounded NeRF framework for sharp HDR novel view synthesis from single-exposure blurry LDR images and corresponding events. We employ NeRF to directly represent the actual radiance of the 3D scene in the HDR domain and model raw HDR scene rays hitting the sensor pixels as in the physical world. A pixel-wise RGB mapping field is introduced to align the above rendered pixel values with the sensor-recorded LDR pixel values of the input images. A novel event mapping field is also designed to bridge the physical scene dynamics and actual event sensor output. The two mapping fields are jointly optimized with the NeRF network, leveraging the spatial and temporal dynamic information in events to enhance the sharp HDR 3D representation learning. Experiments on the collected and public datasets demonstrate that our method can achieve state-of-the-art deblurring HDR novel view synthesis results with single-exposure blurry LDR images and corresponding events.
- Abstract(参考訳): 野生でよく見られる低ダイナミックレンジ(LDR)ぼかし画像からの新たなビュー合成は、極端な照明条件下での高ダイナミックレンジ(HDR)と鋭い3D表現の回復に苦慮している。
既存の方法ではイベントデータを用いてこの問題に対処するが、カメラ出力と物理世界放射のセンサー物理ミスマッチを無視し、準最適HDRと劣化の結果をもたらす。
この問題に対処するために,単一露光のぼやけたLDR画像とそれに対応するイベントから,鋭いHDRノウハウを合成するための統合されたセンサ物理接地型NeRFフレームワークを提案する。
我々は、HDR領域における3Dシーンの実際の放射率を直接表現するためにNeRFを使用し、物理的世界と同様にセンサー画素に衝突する生のHDRシーンをモデル化する。
上記の描画された画素値と入力画像のセンサ記録されたLDR画素値とを整合させるために、画素単位のRGBマッピングフィールドを導入する。
物理的なシーンダイナミクスと実際のイベントセンサ出力をブリッジする、新しいイベントマッピングフィールドも設計されている。
2つのマッピングフィールドはNeRFネットワークと共同で最適化され、イベントにおける空間的および時間的動的情報を活用して、鋭いHDR 3D表現学習を強化する。
収集および公開データセットを用いた実験により, 単一露光でぼやけたLDR画像とそれに対応するイベントを用いて, 最先端の劣化したHDR新規ビュー合成結果が得られた。
関連論文リスト
- Fast High Dynamic Range Radiance Fields for Dynamic Scenes [39.3304365600248]
我々はHDR-HexPlaneという動的HDR NeRFフレームワークを提案し、様々な露出で捉えた動的2D画像から3Dシーンを学習する。
提案したモデルでは、任意の時点における高品質なノベルビュー画像を、望まれる露光でレンダリングすることができる。
論文 参考訳(メタデータ) (2024-01-11T17:15:16Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Efficient HDR Reconstruction from Real-World Raw Images [16.54071503000866]
エッジデバイス上の高解像度スクリーンは、効率的な高ダイナミックレンジ(HDR)アルゴリズムに対する強い需要を刺激する。
多くの既存のHDRメソッドは不満足な結果をもたらすか、計算資源やメモリ資源を消費する。
本研究では,生画像から直接HDRを再構成し,新しいニューラルネットワーク構造を探索する優れた機会を見出した。
論文 参考訳(メタデータ) (2023-06-17T10:10:15Z) - GlowGAN: Unsupervised Learning of HDR Images from LDR Images in the Wild [74.52723408793648]
そこで本研究では,HDR画像の生成モデルを構築するための第1の手法について述べる。
鍵となる考え方は、GAN(Generative Adversarial Network)を訓練して、様々な露光下でLDRに投影された場合、実際のLDR画像と区別できないHDR画像を生成することである。
実験の結果,GlowGANはランドスケープ,雷,窓など多くの難題において,光現実的HDR画像を合成できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T15:42:08Z) - HDR-NeRF: High Dynamic Range Neural Radiance Fields [70.80920996881113]
我々は、低ダイナミックレンジ(LDR)ビューの集合からHDR放射界を異なる露光で復元するために、高ダイナミックレンジニューラルレイディアンス場(-NeRF)を提案する。
異なる露出下で、新しいHDRビューと新しいLDRビューの両方を生成することができる。
論文 参考訳(メタデータ) (2021-11-29T11:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。