論文の概要: Seeing through Light and Darkness: Sensor-Physics Grounded Deblurring HDR NeRF from Single-Exposure Images and Events
- arxiv url: http://arxiv.org/abs/2601.15475v1
- Date: Wed, 21 Jan 2026 21:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.418602
- Title: Seeing through Light and Darkness: Sensor-Physics Grounded Deblurring HDR NeRF from Single-Exposure Images and Events
- Title(参考訳): 光と暗さを通して見る:単一露光画像と事象からのセンサ・物理学的グラウンドドブロアリングHDR NeRF
- Authors: Yunshan Qi, Lin Zhu, Nan Bao, Yifan Zhao, Jia Li,
- Abstract要約: 野生でよく見られる低ダイナミックレンジ(LDR)ぼかし画像からの新たなビュー合成は、極端な照明条件下での高ダイナミックレンジ(ブルー)と鋭い3D表現の回復に苦慮している。
単一露光でぼやけたLDR画像とそれに対応するイベントから、鋭いHDRノウハウを合成するための統合されたセンサ物理接地型NeRFフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.72024188845033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis from low dynamic range (LDR) blurry images, which are common in the wild, struggles to recover high dynamic range (HDR) and sharp 3D representations in extreme lighting conditions. Although existing methods employ event data to address this issue, they ignore the sensor-physics mismatches between the camera output and physical world radiance, resulting in suboptimal HDR and deblurring results. To cope with this problem, we propose a unified sensor-physics grounded NeRF framework for sharp HDR novel view synthesis from single-exposure blurry LDR images and corresponding events. We employ NeRF to directly represent the actual radiance of the 3D scene in the HDR domain and model raw HDR scene rays hitting the sensor pixels as in the physical world. A pixel-wise RGB mapping field is introduced to align the above rendered pixel values with the sensor-recorded LDR pixel values of the input images. A novel event mapping field is also designed to bridge the physical scene dynamics and actual event sensor output. The two mapping fields are jointly optimized with the NeRF network, leveraging the spatial and temporal dynamic information in events to enhance the sharp HDR 3D representation learning. Experiments on the collected and public datasets demonstrate that our method can achieve state-of-the-art deblurring HDR novel view synthesis results with single-exposure blurry LDR images and corresponding events.
- Abstract(参考訳): 野生でよく見られる低ダイナミックレンジ(LDR)ぼかし画像からの新たなビュー合成は、極端な照明条件下での高ダイナミックレンジ(HDR)と鋭い3D表現の回復に苦慮している。
既存の方法ではイベントデータを用いてこの問題に対処するが、カメラ出力と物理世界放射のセンサー物理ミスマッチを無視し、準最適HDRと劣化の結果をもたらす。
この問題に対処するために,単一露光のぼやけたLDR画像とそれに対応するイベントから,鋭いHDRノウハウを合成するための統合されたセンサ物理接地型NeRFフレームワークを提案する。
我々は、HDR領域における3Dシーンの実際の放射率を直接表現するためにNeRFを使用し、物理的世界と同様にセンサー画素に衝突する生のHDRシーンをモデル化する。
上記の描画された画素値と入力画像のセンサ記録されたLDR画素値とを整合させるために、画素単位のRGBマッピングフィールドを導入する。
物理的なシーンダイナミクスと実際のイベントセンサ出力をブリッジする、新しいイベントマッピングフィールドも設計されている。
2つのマッピングフィールドはNeRFネットワークと共同で最適化され、イベントにおける空間的および時間的動的情報を活用して、鋭いHDR 3D表現学習を強化する。
収集および公開データセットを用いた実験により, 単一露光でぼやけたLDR画像とそれに対応するイベントを用いて, 最先端の劣化したHDR新規ビュー合成結果が得られた。
関連論文リスト
- Reconstructing 3D Scenes in Native High Dynamic Range [82.90064638813185]
本研究では,HDR観測を直接モデル化した3次元シーン再構成法を提案する。
bf Native High Dynamic Range 3D Gaussian Splatting (NH-3DGS)を提案する。
NH-3DGSは, 再構成品質と動的レンジ保存において, 既存の手法よりも有意に優れる合成多視点HDRデータセットと実HDRデータセットの両方を実証した。
論文 参考訳(メタデータ) (2025-11-17T02:33:31Z) - Dynamic Novel View Synthesis in High Dynamic Range [78.72910306733607]
現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
HDR-4DGSは,革新的な動的トーンマッピングモジュールを備えたガウススプラッティング方式のアーキテクチャである。
実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
論文 参考訳(メタデータ) (2025-09-26T04:29:22Z) - Deblurring Neural Radiance Fields with Event-driven Bundle Adjustment [23.15130387716121]
本稿では,学習可能なポーズとNeRFパラメータを協調的に最適化するために,Bundle Adjustment for Deblurring Neural Radiance Fields (EBAD-NeRF)を提案する。
EBAD-NeRFは露光時間中に正確なカメラ軌跡を得ることができ、従来よりもシャープな3D表現を学習することができる。
論文 参考訳(メタデータ) (2024-06-20T14:33:51Z) - Fast High Dynamic Range Radiance Fields for Dynamic Scenes [39.3304365600248]
我々はHDR-HexPlaneという動的HDR NeRFフレームワークを提案し、様々な露出で捉えた動的2D画像から3Dシーンを学習する。
提案したモデルでは、任意の時点における高品質なノベルビュー画像を、望まれる露光でレンダリングすることができる。
論文 参考訳(メタデータ) (2024-01-11T17:15:16Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Efficient HDR Reconstruction from Real-World Raw Images [16.54071503000866]
エッジデバイス上の高解像度スクリーンは、効率的な高ダイナミックレンジ(HDR)アルゴリズムに対する強い需要を刺激する。
多くの既存のHDRメソッドは不満足な結果をもたらすか、計算資源やメモリ資源を消費する。
本研究では,生画像から直接HDRを再構成し,新しいニューラルネットワーク構造を探索する優れた機会を見出した。
論文 参考訳(メタデータ) (2023-06-17T10:10:15Z) - GlowGAN: Unsupervised Learning of HDR Images from LDR Images in the Wild [74.52723408793648]
そこで本研究では,HDR画像の生成モデルを構築するための第1の手法について述べる。
鍵となる考え方は、GAN(Generative Adversarial Network)を訓練して、様々な露光下でLDRに投影された場合、実際のLDR画像と区別できないHDR画像を生成することである。
実験の結果,GlowGANはランドスケープ,雷,窓など多くの難題において,光現実的HDR画像を合成できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T15:42:08Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z) - HDR-NeRF: High Dynamic Range Neural Radiance Fields [70.80920996881113]
我々は、低ダイナミックレンジ(LDR)ビューの集合からHDR放射界を異なる露光で復元するために、高ダイナミックレンジニューラルレイディアンス場(-NeRF)を提案する。
異なる露出下で、新しいHDRビューと新しいLDRビューの両方を生成することができる。
論文 参考訳(メタデータ) (2021-11-29T11:06:39Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。