論文の概要: X2HDR: HDR Image Generation in a Perceptually Uniform Space
- arxiv url: http://arxiv.org/abs/2602.04814v1
- Date: Wed, 04 Feb 2026 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.671801
- Title: X2HDR: HDR Image Generation in a Perceptually Uniform Space
- Title(参考訳): X2HDR: 知覚的一様空間におけるHDR画像生成
- Authors: Ronghuan Wu, Wanchao Su, Kede Ma, Jing Liao, Rafał K. Mantiuk,
- Abstract要約: 高ダイナミックレンジフォーマットとディスプレイはますます普及しているが、最先端の画像生成装置は低ダイナミックレンジ(LDR)出力に限定されている。
既存の事前学習拡散モデルでは,スクラッチから再学習することなく,HDR生成に容易に適応できることを示す。
- 参考スコア(独自算出の注目度): 37.83280929526874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dynamic-range (HDR) formats and displays are becoming increasingly prevalent, yet state-of-the-art image generators (e.g., Stable Diffusion and FLUX) typically remain limited to low-dynamic-range (LDR) output due to the lack of large-scale HDR training data. In this work, we show that existing pretrained diffusion models can be easily adapted to HDR generation without retraining from scratch. A key challenge is that HDR images are natively represented in linear RGB, whose intensity and color statistics differ substantially from those of sRGB-encoded LDR images. This gap, however, can be effectively bridged by converting HDR inputs into perceptually uniform encodings (e.g., using PU21 or PQ). Empirically, we find that LDR-pretrained variational autoencoders (VAEs) reconstruct PU21-encoded HDR inputs with fidelity comparable to LDR data, whereas linear RGB inputs cause severe degradations. Motivated by this finding, we describe an efficient adaptation strategy that freezes the VAE and finetunes only the denoiser via low-rank adaptation in a perceptually uniform space. This results in a unified computational method that supports both text-to-HDR synthesis and single-image RAW-to-HDR reconstruction. Experiments demonstrate that our perceptually encoded adaptation consistently improves perceptual fidelity, text-image alignment, and effective dynamic range, relative to previous techniques.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)フォーマットやディスプレイはますます普及しているが、大規模なHDRトレーニングデータがないため、一般的には低ダイナミックレンジ(LDR)出力に限定されている。
本研究では,既存の事前学習拡散モデルをスクラッチから再学習することなく容易にHDR生成に適応できることを示す。
重要な課題は、HDR画像がリニアRGBでネイティブに表現され、その強度と色統計はsRGBエンコードされたLDR画像と大きく異なることである。
しかし、このギャップは、HDR入力を知覚的に均一な符号化(PU21やPQ)に変換することで効果的に橋渡しできる。
実験により,LDR-pretrained variational autoencoders (VAEs)はPU21符号化HDR入力をLDRデータに匹敵する忠実度で再構成するのに対し,線形RGB入力は深刻な劣化を引き起こすことがわかった。
この発見を動機として,視覚的に均一な空間における低ランク適応により,VAEとファインチューンのみを凍結する効率的な適応戦略を述べる。
これにより、テキスト・ツー・HDR合成とシングルイメージRAW・ツー・HDR再構成の両方をサポートする統一的な計算手法が実現される。
実験により、我々の知覚的に符号化された適応は、従来の手法と比較して知覚の忠実さ、テキスト画像のアライメント、効果的なダイナミックレンジを一貫して改善することが示された。
関連論文リスト
- Learned HDR Image Compression for Perceptually Optimal Storage and Display [21.772946547671122]
高ダイナミックレンジのキャプチャと表示は、技術の進歩と優れた画像品質に対する消費者の需要の増加により、人気が著しく上昇している。
その結果、HDR画像圧縮は、大きなファイルサイズと非効率なデータハンドリングに悩まされることなく、HDR画像の利点を十分に実現するために重要である。
本研究では,エンド・ツー・エンドで最適化されたHDR画像圧縮を,知覚的に最適な記憶・表示に活用するための取り組みを開始する。
論文 参考訳(メタデータ) (2024-07-18T05:35:57Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Bracket Diffusion: HDR Image Generation by Consistent LDR Denoising [29.45922922270381]
複数のブラックボックス, 事前学習されたLDR画像拡散モデルの協調動作を用いたHDR画像の生成を実演する。
有効なHDR結果を生成する複数のLDRブラケットを生成するために,複数の復調処理を運用する。
現状未条件および条件回復型(LDR2)生成モデルの結果は,まだHDRでは示されていない。
論文 参考訳(メタデータ) (2024-05-23T08:24:22Z) - Adapting Pretrained Networks for Image Quality Assessment on High Dynamic Range Displays [0.0]
従来の画像品質指標(IQMs)は、知覚的に均一なガンマ符号化されたピクセル値のために設計されている。
利用可能なデータセットのほとんどは、標準およびおそらく制御されていない観測条件で収集された標準ダイナミックレンジ(SDR)イメージで構成されている。
一般的なトレーニング済みニューラルネットワークもSDR入力を意図しており、HDRコンテンツへの直接適用を制限している。
本研究では,HDRデータに基づく画像品質評価(IQA)のための深層学習モデル学習のための,より効果的なアプローチについて検討する。
論文 参考訳(メタデータ) (2024-05-01T17:57:12Z) - Generating Content for HDR Deghosting from Frequency View [56.103761824603644]
近年の拡散モデル (DM) はHDRイメージング分野に導入されている。
DMは画像全体を推定するために大きなモデルで広範囲の反復を必要とする。
ゴーストフリーHDRイメージングのための低周波数対応拡散(LF-Diff)モデルを提案する。
論文 参考訳(メタデータ) (2024-04-01T01:32:11Z) - HistoHDR-Net: Histogram Equalization for Single LDR to HDR Image
Translation [12.45632443397018]
高ダイナミックレンジ(HDR)イメージングは、現実世界のシーンの高画質と明快さを再現することを目的としている。
この文献は、低ダイナミックレンジ(Low Dynamic Range, LDR)からのHDR画像再構成のための様々なデータ駆動手法を提供している。
これらのアプローチの共通する制限は、再構成されたHDR画像の領域における詳細が欠けていることである。
細部を復元するためのシンプルで効果的な手法Histo-Netを提案する。
論文 参考訳(メタデータ) (2024-02-08T20:14:46Z) - Training Neural Networks on RAW and HDR Images for Restoration Tasks [53.84872583527721]
線形色空間におけるRAWおよびHDR画像のタスクに対して、ニューラルネットワークをどのようにトレーニングするかを検討する。
その結果、ニューラルネットワークは色空間で表現されるHDRおよびRAW画像において、かなりよく訓練されていることが示唆された。
トレーニング戦略へのこの小さな変更は、2から9dBの間で、非常に大きなパフォーマンス向上をもたらします。
論文 参考訳(メタデータ) (2023-12-06T17:47:16Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - Efficient HDR Reconstruction from Real-World Raw Images [16.54071503000866]
エッジデバイス上の高解像度スクリーンは、効率的な高ダイナミックレンジ(HDR)アルゴリズムに対する強い需要を刺激する。
多くの既存のHDRメソッドは不満足な結果をもたらすか、計算資源やメモリ資源を消費する。
本研究では,生画像から直接HDRを再構成し,新しいニューラルネットワーク構造を探索する優れた機会を見出した。
論文 参考訳(メタデータ) (2023-06-17T10:10:15Z) - Invertible Tone Mapping with Selectable Styles [19.03179521805971]
本稿では,マルチ露光HDRを真のLDRに変換する可逆トーンマッピング法を提案する。
我々の可逆LDRは、ユーザが選択したトーンマッピングスタイルの外観を模倣することができる。
アップロードされた画像を再エンコードしたり、フォーマット変換したりできる既存のソーシャルネットワークプラットフォーム上で共有することができる。
論文 参考訳(メタデータ) (2021-10-09T07:32:36Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。