論文の概要: UltraLED: Learning to See Everything in Ultra-High Dynamic Range Scenes
- arxiv url: http://arxiv.org/abs/2510.07741v1
- Date: Thu, 09 Oct 2025 03:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.844715
- Title: UltraLED: Learning to See Everything in Ultra-High Dynamic Range Scenes
- Title(参考訳): 超高ダイナミックレンジシーンですべてを見ることを学ぶUltraLED
- Authors: Yuang Meng, Xin Jin, Lina Lei, Chun-Le Guo, Chongyi Li,
- Abstract要約: 超高ダイナミックレンジのシーンは、明るい領域と暗い領域の間に顕著な露光差を示す。
RGBベースのブラケット法は、短距離露光ペアを使用して両端の細部をキャプチャできるが、修正ミスやゴーストのアーティファクトの影響を受けやすい。
本研究では,ゴーストや動きのぼかしを本質的に回避する,単一の短時間露光フレームにのみ依存する。
- 参考スコア(独自算出の注目度): 57.974462689166394
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultra-high dynamic range (UHDR) scenes exhibit significant exposure disparities between bright and dark regions. Such conditions are commonly encountered in nighttime scenes with light sources. Even with standard exposure settings, a bimodal intensity distribution with boundary peaks often emerges, making it difficult to preserve both highlight and shadow details simultaneously. RGB-based bracketing methods can capture details at both ends using short-long exposure pairs, but are susceptible to misalignment and ghosting artifacts. We found that a short-exposure image already retains sufficient highlight detail. The main challenge of UHDR reconstruction lies in denoising and recovering information in dark regions. In comparison to the RGB images, RAW images, thanks to their higher bit depth and more predictable noise characteristics, offer greater potential for addressing this challenge. This raises a key question: can we learn to see everything in UHDR scenes using only a single short-exposure RAW image? In this study, we rely solely on a single short-exposure frame, which inherently avoids ghosting and motion blur, making it particularly robust in dynamic scenes. To achieve that, we introduce UltraLED, a two-stage framework that performs exposure correction via a ratio map to balance dynamic range, followed by a brightness-aware RAW denoiser to enhance detail recovery in dark regions. To support this setting, we design a 9-stop bracketing pipeline to synthesize realistic UHDR images and contribute a corresponding dataset based on diverse scenes, using only the shortest exposure as input for reconstruction. Extensive experiments show that UltraLED significantly outperforms existing single-frame approaches. Our code and dataset are made publicly available at https://srameo.github.io/projects/ultraled.
- Abstract(参考訳): 超高ダイナミックレンジ(UHDR)のシーンは、明るい領域と暗い領域の間に顕著な露光差を示す。
このような状況は、夜間の光源のある場面でよく見られる。
標準的な露光設定であっても、境界ピークを持つバイモーダル強度分布がしばしば出現し、ハイライトとシャドウの詳細の両方を同時に保存することは困難である。
RGBベースのブラケット法は、短距離露光ペアを使用して両端の細部をキャプチャできるが、修正ミスやゴーストのアーティファクトの影響を受けやすい。
短い露光画像はすでに十分なハイライトを保っていることがわかった。
UHDR再建の主な課題は、暗黒領域の情報の復調と回復である。
RGB画像と比較して、RAW画像は、高いビット深度と予測可能なノイズ特性のおかげで、この課題に対処する可能性がある。
短い露光RAW画像だけでUHDRシーンのすべてを見ることができるか?
本研究では,ゴーストや動きのぼやけを本質的に回避し,ダイナミックなシーンで特に頑丈な単一露光フレームにのみ依存する。
そこで本研究では、ダイナミックレンジのバランスを保ちながら比マップによる露光補正を行うための2段階フレームワークであるUltraLEDと、暗黒領域のディテールリカバリを強化する輝度認識RAWデノイザを導入する。
この設定を支援するため,実写のUHDR画像を合成する9ストップブラケットパイプラインを設計し,最も短い露光のみを入力として,多様なシーンに基づいて対応するデータセットをコントリビュートする。
大規模な実験により、UltraLEDは既存の単一フレームアプローチよりも大幅に優れていた。
私たちのコードとデータセットはhttps://srameo.github.io/projects/ultraledで公開されています。
関連論文リスト
- Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark [51.68144172958247]
そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2025-07-16T05:54:33Z) - UltraFusion: Ultra High Dynamic Imaging using Exposure Fusion [16.915597001287964]
ハイダイナミックレンジシーンのキャプチャは、カメラ設計において最も重要な問題の一つである。
差分9で入力をマージできる最初の露光融合技術であるモデルを提案する。
提案手法は最新のHDRベンチマークにおいてHDR-Transformerより優れている。
論文 参考訳(メタデータ) (2025-01-20T14:45:07Z) - Dynamic EventNeRF: Reconstructing General Dynamic Scenes from Multi-view RGB and Event Streams [69.65147723239153]
動的シーンのボリューム再構成はコンピュータビジョンにおいて重要な問題である。
照明が悪く、動きが速い場合には特に困難である。
本稿では,スパースなマルチビューイベントストリームとスパースなRGBフレームからシーンを時間的に再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T18:56:18Z) - Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - HDR-cGAN: Single LDR to HDR Image Translation using Conditional GAN [24.299931323012757]
低ダイナミックレンジ(LDR)カメラは、現実世界のシーンの広いダイナミックレンジを表現できない。
本研究では,HDR画像の再構成を行いながら,飽和領域の詳細を復元する深層学習手法を提案する。
本稿では,HDR-REALデータセットとHDR-SYNTHデータセットに対して,エンドツーエンドでトレーニングされた新しい条件付きGAN(cGAN)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-04T18:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。