論文の概要: Efficient HDR Reconstruction from Real-World Raw Images
- arxiv url: http://arxiv.org/abs/2306.10311v5
- Date: Wed, 5 Jun 2024 07:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 04:26:20.284656
- Title: Efficient HDR Reconstruction from Real-World Raw Images
- Title(参考訳): 実世界のRAW画像からの効率的なHDR再構成
- Authors: Qirui Yang, Yihao Liu, Qihua Chen, Huanjing Yue, Kun Li, Jingyu Yang,
- Abstract要約: エッジデバイス上の高解像度スクリーンは、効率的な高ダイナミックレンジ(HDR)アルゴリズムに対する強い需要を刺激する。
多くの既存のHDRメソッドは不満足な結果をもたらすか、計算資源やメモリ資源を消費する。
本研究では,生画像から直接HDRを再構成し,新しいニューラルネットワーク構造を探索する優れた機会を見出した。
- 参考スコア(独自算出の注目度): 16.54071503000866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread usage of high-definition screens on edge devices stimulates a strong demand for efficient high dynamic range (HDR) algorithms. However, many existing HDR methods either deliver unsatisfactory results or consume too much computational and memory resources, hindering their application to high-resolution images (usually with more than 12 megapixels) in practice. In addition, existing HDR dataset collection methods often are labor-intensive. In this work, in a new aspect, we discover an excellent opportunity for HDR reconstructing directly from raw images and investigating novel neural network structures that benefit the deployment of mobile devices. Our key insights are threefold: (1) we develop a lightweight-efficient HDR model, RepUNet, using the structural re-parameterization technique to achieve fast and robust HDR; (2) we design a new computational raw HDR data formation pipeline and construct a real-world raw HDR dataset, RealRaw-HDR; (3) we propose a plug-and-play motion alignment loss to mitigate motion ghosting under limited bandwidth conditions. Our model contains less than 830K parameters and takes less than 3 ms to process an image of 4K resolution using one RTX 3090 GPU. While being highly efficient, our model also outperforms the state-of-the-art HDR methods in terms of PSNR, SSIM, and a color difference metric.
- Abstract(参考訳): エッジデバイスでの高解像度スクリーンの普及は、効率的な高ダイナミックレンジ(HDR)アルゴリズムへの強い需要を刺激する。
しかし、既存の多くのHDR手法は不満足な結果をもたらすか、計算やメモリ資源を消費しすぎるかのいずれかであり、実際には高解像度の画像(通常12メガピクセル以上)への応用を妨げる。
加えて、既存のHDRデータセット収集手法は労働集約的であることが多い。
本研究では,HDRを生画像から直接再構成し,モバイルデバイスの展開に寄与する新しいニューラルネットワーク構造を探索する優れた機会を見出した。
我々は,(1)高速かつ堅牢なHDRを実現するために構造的再パラメータ化手法RepUNetを開発し,(2)新しい計算生HDRデータ生成パイプラインを設計し,リアルな生HDRデータセットRealRaw-HDRを構築し,(3)限られた帯域幅条件下での動作ゴーストを緩和するためのプラグアンドプレイ動作アライメントロスを提案する。
我々のモデルは830K未満のパラメータを含み、RTX 3090 GPUを用いて4K解像度の画像を処理するのに3ms未満である。
このモデルでは,PSNR,SSIM,色差測定において,最先端HDR法よりも高い性能を示した。
関連論文リスト
- HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - HDR Video Reconstruction with a Large Dynamic Dataset in Raw and sRGB
Domains [23.309488653045026]
高ダイナミックレンジ(HDR)ビデオ再構成は、低ダイナミックレンジ(LDR)ビデオと比較して視覚的品質が優れているため、ますます注目を集めている。
同時にLDRフレームを取得するのが難しいため、動的シーンのための実際のLDR-ペアはいまだに存在しない。
本研究では,2つの異なる露光画像を同時にキャプチャするスタッガーセンサを用いて,生領域とsRGB領域のHDRフレームに融合する手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T11:59:03Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - Beyond Visual Attractiveness: Physically Plausible Single Image HDR
Reconstruction for Spherical Panoramas [60.24132321381606]
我々は,単発hdr再構成フレームワークに物理的照度制約を導入する。
本手法は,視覚に訴えるだけでなく,物理的に妥当なHDRを生成することができる。
論文 参考訳(メタデータ) (2021-03-24T01:51:19Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。