論文の概要: GTA-HDR: A Large-Scale Synthetic Dataset for HDR Image Reconstruction
- arxiv url: http://arxiv.org/abs/2403.17837v1
- Date: Tue, 26 Mar 2024 16:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 14:37:40.642807
- Title: GTA-HDR: A Large-Scale Synthetic Dataset for HDR Image Reconstruction
- Title(参考訳): GTA-HDR:HDR画像再構成のための大規模合成データセット
- Authors: Hrishav Bakul Barua, Kalin Stefanov, KokSheik Wong, Abhinav Dhall, Ganesh Krishnasamy,
- Abstract要約: High Dynamic Range(画像とビデオ)は幅広い用途がある。
High Dynamic Range(画像とビデオ)は幅広い用途がある。
低ダイナミックレンジ(Low Dynamic Range, LDR)から視覚的に正確なHDR画像を再構成する難しい作業は、視覚研究コミュニティで注目を集めている。
- 参考スコア(独自算出の注目度): 11.610543327501995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High Dynamic Range (HDR) content (i.e., images and videos) has a broad range of applications. However, capturing HDR content from real-world scenes is expensive and time- consuming. Therefore, the challenging task of reconstructing visually accurate HDR images from their Low Dynamic Range (LDR) counterparts is gaining attention in the vision research community. A major challenge in this research problem is the lack of datasets, which capture diverse scene conditions (e.g., lighting, shadows, weather, locations, landscapes, objects, humans, buildings) and various image features (e.g., color, contrast, saturation, hue, luminance, brightness, radiance). To address this gap, in this paper, we introduce GTA-HDR, a large-scale synthetic dataset of photo-realistic HDR images sampled from the GTA-V video game. We perform thorough evaluation of the proposed dataset, which demonstrates significant qualitative and quantitative improvements of the state-of-the-art HDR image reconstruction methods. Furthermore, we demonstrate the effectiveness of the proposed dataset and its impact on additional computer vision tasks including 3D human pose estimation, human body part segmentation, and holistic scene segmentation. The dataset, data collection pipeline, and evaluation code are available at: https://github.com/HrishavBakulBarua/GTA-HDR.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)コンテンツ(画像とビデオ)は幅広い用途がある。
しかし、現実世界のシーンからHDRコンテンツをキャプチャするのは高価で時間を要する。
そのため、視力研究コミュニティでは、低ダイナミックレンジ(Low Dynamic Range, LDR)から視覚的に正確なHDR画像を再構成する難題が注目されている。
この研究における大きな課題は、さまざまなシーン条件(例えば、照明、影、天気、場所、風景、物、人間、建物)とさまざまな画像特徴(例えば、色、コントラスト、彩度、色、輝度、輝度、放射率)をキャプチャするデータセットの欠如である。
本稿では,GTA-Vビデオゲームからサンプリングした写真リアルなHDR画像の大規模合成データセットであるGTA-HDRを紹介する。
提案したデータセットの徹底的な評価を行い,最新のHDR画像再構成手法の質的,定量的な改善を示す。
さらに,提案したデータセットの有効性と3次元人間のポーズ推定,人体部分のセグメンテーション,全体像のセグメンテーションなどのコンピュータビジョンタスクに対する効果を示す。
データセット、データ収集パイプライン、評価コードは、https://github.com/HrishavBakulBarua/GTA-HDRで入手できる。
関連論文リスト
- HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Towards Real-World HDR Video Reconstruction: A Large-Scale Benchmark Dataset and A Two-Stage Alignment Network [16.39592423564326]
既存の手法は主に合成データセットに基づいて訓練されており、実際のシーンでは性能が良くない。
HDRビデオ再構成のための大規模実世界のベンチマークデータセットであるReal-Vを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:29:26Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - GlowGAN: Unsupervised Learning of HDR Images from LDR Images in the Wild [74.52723408793648]
そこで本研究では,HDR画像の生成モデルを構築するための第1の手法について述べる。
鍵となる考え方は、GAN(Generative Adversarial Network)を訓練して、様々な露光下でLDRに投影された場合、実際のLDR画像と区別できないHDR画像を生成することである。
実験の結果,GlowGANはランドスケープ,雷,窓など多くの難題において,光現実的HDR画像を合成できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T15:42:08Z) - HDR-cGAN: Single LDR to HDR Image Translation using Conditional GAN [24.299931323012757]
低ダイナミックレンジ(LDR)カメラは、現実世界のシーンの広いダイナミックレンジを表現できない。
本研究では,HDR画像の再構成を行いながら,飽和領域の詳細を復元する深層学習手法を提案する。
本稿では,HDR-REALデータセットとHDR-SYNTHデータセットに対して,エンドツーエンドでトレーニングされた新しい条件付きGAN(cGAN)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-04T18:50:35Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - HDR Video Reconstruction: A Coarse-to-fine Network and A Real-world
Benchmark Dataset [30.249052175655606]
HDRビデオ再構築のための粗い深層学習フレームワークを紹介します。
まず,画像空間において粗いアライメントとピクセルブレンドを行い,粗いhdr映像を推定する。
第二に、粗いHDRビデオの特徴空間でより洗練されたアライメントと時間融合を行い、より良い再構築を実現します。
論文 参考訳(メタデータ) (2021-03-27T16:40:05Z) - Beyond Visual Attractiveness: Physically Plausible Single Image HDR
Reconstruction for Spherical Panoramas [60.24132321381606]
我々は,単発hdr再構成フレームワークに物理的照度制約を導入する。
本手法は,視覚に訴えるだけでなく,物理的に妥当なHDRを生成することができる。
論文 参考訳(メタデータ) (2021-03-24T01:51:19Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。