論文の概要: UltraLED: Learning to See Everything in Ultra-High Dynamic Range Scenes
- arxiv url: http://arxiv.org/abs/2510.07741v1
- Date: Thu, 09 Oct 2025 03:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.844715
- Title: UltraLED: Learning to See Everything in Ultra-High Dynamic Range Scenes
- Title(参考訳): 超高ダイナミックレンジシーンですべてを見ることを学ぶUltraLED
- Authors: Yuang Meng, Xin Jin, Lina Lei, Chun-Le Guo, Chongyi Li,
- Abstract要約: 超高ダイナミックレンジのシーンは、明るい領域と暗い領域の間に顕著な露光差を示す。
RGBベースのブラケット法は、短距離露光ペアを使用して両端の細部をキャプチャできるが、修正ミスやゴーストのアーティファクトの影響を受けやすい。
本研究では,ゴーストや動きのぼかしを本質的に回避する,単一の短時間露光フレームにのみ依存する。
- 参考スコア(独自算出の注目度): 57.974462689166394
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultra-high dynamic range (UHDR) scenes exhibit significant exposure disparities between bright and dark regions. Such conditions are commonly encountered in nighttime scenes with light sources. Even with standard exposure settings, a bimodal intensity distribution with boundary peaks often emerges, making it difficult to preserve both highlight and shadow details simultaneously. RGB-based bracketing methods can capture details at both ends using short-long exposure pairs, but are susceptible to misalignment and ghosting artifacts. We found that a short-exposure image already retains sufficient highlight detail. The main challenge of UHDR reconstruction lies in denoising and recovering information in dark regions. In comparison to the RGB images, RAW images, thanks to their higher bit depth and more predictable noise characteristics, offer greater potential for addressing this challenge. This raises a key question: can we learn to see everything in UHDR scenes using only a single short-exposure RAW image? In this study, we rely solely on a single short-exposure frame, which inherently avoids ghosting and motion blur, making it particularly robust in dynamic scenes. To achieve that, we introduce UltraLED, a two-stage framework that performs exposure correction via a ratio map to balance dynamic range, followed by a brightness-aware RAW denoiser to enhance detail recovery in dark regions. To support this setting, we design a 9-stop bracketing pipeline to synthesize realistic UHDR images and contribute a corresponding dataset based on diverse scenes, using only the shortest exposure as input for reconstruction. Extensive experiments show that UltraLED significantly outperforms existing single-frame approaches. Our code and dataset are made publicly available at https://srameo.github.io/projects/ultraled.
- Abstract(参考訳): 超高ダイナミックレンジ(UHDR)のシーンは、明るい領域と暗い領域の間に顕著な露光差を示す。
このような状況は、夜間の光源のある場面でよく見られる。
標準的な露光設定であっても、境界ピークを持つバイモーダル強度分布がしばしば出現し、ハイライトとシャドウの詳細の両方を同時に保存することは困難である。
RGBベースのブラケット法は、短距離露光ペアを使用して両端の細部をキャプチャできるが、修正ミスやゴーストのアーティファクトの影響を受けやすい。
短い露光画像はすでに十分なハイライトを保っていることがわかった。
UHDR再建の主な課題は、暗黒領域の情報の復調と回復である。
RGB画像と比較して、RAW画像は、高いビット深度と予測可能なノイズ特性のおかげで、この課題に対処する可能性がある。
短い露光RAW画像だけでUHDRシーンのすべてを見ることができるか?
本研究では,ゴーストや動きのぼやけを本質的に回避し,ダイナミックなシーンで特に頑丈な単一露光フレームにのみ依存する。
そこで本研究では、ダイナミックレンジのバランスを保ちながら比マップによる露光補正を行うための2段階フレームワークであるUltraLEDと、暗黒領域のディテールリカバリを強化する輝度認識RAWデノイザを導入する。
この設定を支援するため,実写のUHDR画像を合成する9ストップブラケットパイプラインを設計し,最も短い露光のみを入力として,多様なシーンに基づいて対応するデータセットをコントリビュートする。
大規模な実験により、UltraLEDは既存の単一フレームアプローチよりも大幅に優れていた。
私たちのコードとデータセットはhttps://srameo.github.io/projects/ultraledで公開されています。
関連論文リスト
- Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark [51.68144172958247]
そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2025-07-16T05:54:33Z) - UltraFusion: Ultra High Dynamic Imaging using Exposure Fusion [16.915597001287964]
ハイダイナミックレンジシーンのキャプチャは、カメラ設計において最も重要な問題の一つである。
差分9で入力をマージできる最初の露光融合技術であるモデルを提案する。
提案手法は最新のHDRベンチマークにおいてHDR-Transformerより優れている。
論文 参考訳(メタデータ) (2025-01-20T14:45:07Z) - Dynamic EventNeRF: Reconstructing General Dynamic Scenes from Multi-view RGB and Event Streams [69.65147723239153]
動的シーンのボリューム再構成はコンピュータビジョンにおいて重要な問題である。
照明が悪く、動きが速い場合には特に困難である。
本稿では,スパースなマルチビューイベントストリームとスパースなRGBフレームからシーンを時間的に再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T18:56:18Z) - Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - Online Overexposed Pixels Hallucination in Videos with Adaptive
Reference Frame Selection [90.35085487641773]
低ダイナミックレンジ(LDR)カメラは広いダイナミックレンジ入力に対応できず、しばしば局所的な露出問題を引き起こす。
複雑な処理機構を使わずにこれらの成果物を削減できる学習ベースシステムを提案する。
論文 参考訳(メタデータ) (2023-08-29T17:40:57Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - Multi-Exposure HDR Composition by Gated Swin Transformer [8.619880437958525]
本稿では,Swin Transformerに基づく新しいマルチ露光融合モデルを提案する。
露光空間ピラミッドにおける遠距離文脈依存性を自己認識機構により活用する。
実験により,本モデルが現在のマルチ露光HDR画像モデルと同等の精度が得られることが示された。
論文 参考訳(メタデータ) (2023-03-15T15:38:43Z) - HDR-cGAN: Single LDR to HDR Image Translation using Conditional GAN [24.299931323012757]
低ダイナミックレンジ(LDR)カメラは、現実世界のシーンの広いダイナミックレンジを表現できない。
本研究では,HDR画像の再構成を行いながら,飽和領域の詳細を復元する深層学習手法を提案する。
本稿では,HDR-REALデータセットとHDR-SYNTHデータセットに対して,エンドツーエンドでトレーニングされた新しい条件付きGAN(cGAN)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-04T18:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。