論文の概要: S2R-HDR: A Large-Scale Rendered Dataset for HDR Fusion
- arxiv url: http://arxiv.org/abs/2504.07667v1
- Date: Thu, 10 Apr 2025 11:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:20:47.325029
- Title: S2R-HDR: A Large-Scale Rendered Dataset for HDR Fusion
- Title(参考訳): S2R-HDR:HDR融合のための大規模レンダリングデータセット
- Authors: Yujin Wang, Jiarui Wu, Yichen Bian, Fan Zhang, Tianfan Xue,
- Abstract要約: S2R-は、HDR融合のための最初の大規模な高品質な合成データセットであり、24,000個のHDRサンプルがある。
我々は、様々な動的要素、モーションタイプ、ハイダイナミックレンジシーン、照明を含む、多様な現実的なHDRシーンを設計する。
合成データと実世界のデータのギャップを埋めるために設計されたドメイン適応であるS2R-Adapterを紹介する。
- 参考スコア(独自算出の注目度): 4.684215759472536
- License:
- Abstract: The generalization of learning-based high dynamic range (HDR) fusion is often limited by the availability of training data, as collecting large-scale HDR images from dynamic scenes is both costly and technically challenging. To address these challenges, we propose S2R-HDR, the first large-scale high-quality synthetic dataset for HDR fusion, with 24,000 HDR samples. Using Unreal Engine 5, we design a diverse set of realistic HDR scenes that encompass various dynamic elements, motion types, high dynamic range scenes, and lighting. Additionally, we develop an efficient rendering pipeline to generate realistic HDR images. To further mitigate the domain gap between synthetic and real-world data, we introduce S2R-Adapter, a domain adaptation designed to bridge this gap and enhance the generalization ability of models. Experimental results on real-world datasets demonstrate that our approach achieves state-of-the-art HDR reconstruction performance. Dataset and code will be available at https://openimaginglab.github.io/S2R-HDR.
- Abstract(参考訳): 学習ベースハイダイナミックレンジ(HDR)融合の一般化は、動的シーンから大規模HDR画像の収集がコストと技術的に困難であることから、トレーニングデータの可用性によって制限されることが多い。
これらの課題に対処するため,HDR融合のための大規模高品質合成データセットであるS2R-HDRと24,000個のHDRサンプルを提案する。
我々はUnreal Engine 5を用いて、様々な動的要素、モーションタイプ、高ダイナミックレンジシーン、照明を含む多様な現実的なHDRシーンを設計する。
さらに,現実的なHDR画像を生成するための効率的なレンダリングパイプラインを開発する。
合成データと実世界のデータ間の領域ギャップを緩和するために、このギャップを埋め、モデルの一般化能力を高めるために設計されたドメイン適応S2R-Adapterを導入する。
実世界のデータセットによる実験結果から,本手法が最先端のHDR再構成性能を実現することを示す。
データセットとコードはhttps://openimaginglab.github.io/S2R-HDR.orgから入手できる。
関連論文リスト
- LEDiff: Latent Exposure Diffusion for HDR Generation [11.669442066168244]
LEDiffは、遅延空間露光融合技術により、HDRコンテンツを生成する生成モデルを実現する方法である。
また、LDR-to-fusionコンバータとしても機能し、既存の低ダイナミックレンジ画像のダイナミックレンジを拡張する。
論文 参考訳(メタデータ) (2024-12-19T02:15:55Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Towards Real-World HDR Video Reconstruction: A Large-Scale Benchmark Dataset and A Two-Stage Alignment Network [16.39592423564326]
既存の手法は主に合成データセットに基づいて訓練されており、実際のシーンでは性能が良くない。
HDRビデオ再構成のための大規模実世界のベンチマークデータセットであるReal-Vを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:29:26Z) - Generating Content for HDR Deghosting from Frequency View [56.103761824603644]
近年の拡散モデル (DM) はHDRイメージング分野に導入されている。
DMは画像全体を推定するために大きなモデルで広範囲の反復を必要とする。
ゴーストフリーHDRイメージングのための低周波数対応拡散(LF-Diff)モデルを提案する。
論文 参考訳(メタデータ) (2024-04-01T01:32:11Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - HDR Video Reconstruction with a Large Dynamic Dataset in Raw and sRGB
Domains [23.309488653045026]
高ダイナミックレンジ(HDR)ビデオ再構成は、低ダイナミックレンジ(LDR)ビデオと比較して視覚的品質が優れているため、ますます注目を集めている。
同時にLDRフレームを取得するのが難しいため、動的シーンのための実際のLDR-ペアはいまだに存在しない。
本研究では,2つの異なる露光画像を同時にキャプチャするスタッガーセンサを用いて,生領域とsRGB領域のHDRフレームに融合する手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T11:59:03Z) - GlowGAN: Unsupervised Learning of HDR Images from LDR Images in the Wild [74.52723408793648]
そこで本研究では,HDR画像の生成モデルを構築するための第1の手法について述べる。
鍵となる考え方は、GAN(Generative Adversarial Network)を訓練して、様々な露光下でLDRに投影された場合、実際のLDR画像と区別できないHDR画像を生成することである。
実験の結果,GlowGANはランドスケープ,雷,窓など多くの難題において,光現実的HDR画像を合成できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T15:42:08Z) - NTIRE 2021 Challenge on High Dynamic Range Imaging: Dataset, Methods and
Results [56.932867490888015]
本稿では,CVPR 2021と共同で開催されているニュートレンド・イメージ・リカバリ・エンハンスメント(NTIRE)ワークショップ(New Trends in Image Restoration and Enhancement, NTIRE)におけるハイダイナミックレンジイメージングの課題について概説する。
この課題は、1つまたは複数の低ダイナミックレンジ(LDR)観測からHDR画像を推定することを目的としている。
論文 参考訳(メタデータ) (2021-06-02T19:45:16Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。