論文の概要: iHDR: Iterative HDR Imaging with Arbitrary Number of Exposures
- arxiv url: http://arxiv.org/abs/2505.22971v1
- Date: Thu, 29 May 2025 01:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.603471
- Title: iHDR: Iterative HDR Imaging with Arbitrary Number of Exposures
- Title(参考訳): iHDR : 任意露光量による反復的HDRイメージング
- Authors: Yu Yuan, Yiheng Chi, Xingguang Zhang, Stanley Chan,
- Abstract要約: 高ダイナミックレンジ(LDR)画像は、複数の低ダイナミックレンジ(LDR)画像からの情報を融合して高品質なHDR画像を得る。
我々のフレームワークはゴーストフリーのデュアルインプット・フュージョン・ネットワーク(Di)と物理ベースのドメインマッピング・ネットワーク(ToneNet)で構成されている。
Diは中間HDR画像を推定し、ToneNetはそれを非線形領域にマッピングし、次のペア融合の基準として機能する。
- 参考スコア(独自算出の注目度): 1.9686770963118383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High dynamic range (HDR) imaging aims to obtain a high-quality HDR image by fusing information from multiple low dynamic range (LDR) images. Numerous learning-based HDR imaging methods have been proposed to achieve this for static and dynamic scenes. However, their architectures are mostly tailored for a fixed number (e.g., three) of inputs and, therefore, cannot apply directly to situations beyond the pre-defined limited scope. To address this issue, we propose a novel framework, iHDR, for iterative fusion, which comprises a ghost-free Dual-input HDR fusion network (DiHDR) and a physics-based domain mapping network (ToneNet). DiHDR leverages a pair of inputs to estimate an intermediate HDR image, while ToneNet maps it back to the nonlinear domain and serves as the reference input for the next pairwise fusion. This process is iteratively executed until all input frames are utilized. Qualitative and quantitative experiments demonstrate the effectiveness of the proposed method as compared to existing state-of-the-art HDR deghosting approaches given flexible numbers of input frames.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)画像は、複数の低ダイナミックレンジ(LDR)画像からの情報を融合して高品質なHDR画像を得る。
静的および動的シーンに対して,多くの学習に基づくHDRイメージング手法が提案されている。
しかし、それらのアーキテクチャは入力の固定数(例えば3)に合わせて調整されているため、事前定義された制限範囲を超える状況では直接適用できない。
この問題に対処するために、ゴーストフリーなデュアルインプットHDR融合ネットワーク(DiHDR)と物理ベースのドメインマッピングネットワーク(ToneNet)を組み合わせた、反復核融合のための新しいフレームワークiHDRを提案する。
DiHDRは中間HDR画像を推定するために一対の入力を利用するが、ToneNetはそれを非線形領域にマッピングし、次のペア融合の参照入力として機能する。
このプロセスは、すべての入力フレームが使用されるまで反復的に実行される。
定性的かつ定量的な実験により,提案手法の有効性が示された。
関連論文リスト
- LEDiff: Latent Exposure Diffusion for HDR Generation [11.669442066168244]
LEDiffは、遅延空間露光融合技術により、HDRコンテンツを生成する生成モデルを実現する方法である。
また、LDR-to-fusionコンバータとしても機能し、既存の低ダイナミックレンジ画像のダイナミックレンジを拡張する。
論文 参考訳(メタデータ) (2024-12-19T02:15:55Z) - LLM-HDR: Bridging LLM-based Perception and Self-Supervision for Unpaired LDR-to-HDR Image Reconstruction [10.957314050894652]
本稿では,Large Language Models (LLM) の知覚を改良したセマンティックアーティファクト・一貫性のある対角的アーキテクチャに統合する手法を提案する。
本手法は,複数のベンチマークデータセットにまたがって最先端の性能を達成し,高品質なHDR画像の再構成を行う。
論文 参考訳(メタデータ) (2024-10-19T11:11:58Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - HistoHDR-Net: Histogram Equalization for Single LDR to HDR Image
Translation [12.45632443397018]
高ダイナミックレンジ(HDR)イメージングは、現実世界のシーンの高画質と明快さを再現することを目的としている。
この文献は、低ダイナミックレンジ(Low Dynamic Range, LDR)からのHDR画像再構成のための様々なデータ駆動手法を提供している。
これらのアプローチの共通する制限は、再構成されたHDR画像の領域における詳細が欠けていることである。
細部を復元するためのシンプルで効果的な手法Histo-Netを提案する。
論文 参考訳(メタデータ) (2024-02-08T20:14:46Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。