論文の概要: LAN-HDR: Luminance-based Alignment Network for High Dynamic Range Video
Reconstruction
- arxiv url: http://arxiv.org/abs/2308.11116v1
- Date: Tue, 22 Aug 2023 01:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 19:39:56.690590
- Title: LAN-HDR: Luminance-based Alignment Network for High Dynamic Range Video
Reconstruction
- Title(参考訳): LAN-HDR:高ダイナミックレンジ映像再構成のための輝度ベースアライメントネットワーク
- Authors: Haesoo Chung and Nam Ik Cho
- Abstract要約: 本稿では,LDRフレームを特徴空間に整列させ,その特徴をHDRフレームにマージする,エンドツーエンドのHDRビデオ合成フレームワークを提案する。
トレーニングでは、フレーム再構築損失に加えて時間的損失を採用し、時間的一貫性を高め、フリッカリングを低減する。
- 参考スコア(独自算出の注目度): 20.911738532410766
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As demands for high-quality videos continue to rise, high-resolution and
high-dynamic range (HDR) imaging techniques are drawing attention. To generate
an HDR video from low dynamic range (LDR) images, one of the critical steps is
the motion compensation between LDR frames, for which most existing works
employed the optical flow algorithm. However, these methods suffer from flow
estimation errors when saturation or complicated motions exist. In this paper,
we propose an end-to-end HDR video composition framework, which aligns LDR
frames in the feature space and then merges aligned features into an HDR frame,
without relying on pixel-domain optical flow. Specifically, we propose a
luminance-based alignment network for HDR (LAN-HDR) consisting of an alignment
module and a hallucination module. The alignment module aligns a frame to the
adjacent reference by evaluating luminance-based attention, excluding color
information. The hallucination module generates sharp details, especially for
washed-out areas due to saturation. The aligned and hallucinated features are
then blended adaptively to complement each other. Finally, we merge the
features to generate a final HDR frame. In training, we adopt a temporal loss,
in addition to frame reconstruction losses, to enhance temporal consistency and
thus reduce flickering. Extensive experiments demonstrate that our method
performs better or comparable to state-of-the-art methods on several
benchmarks.
- Abstract(参考訳): 高品質ビデオの需要が高まるにつれて、高解像度かつ高ダイナミックレンジ(HDR)イメージング技術が注目されている。
低ダイナミックレンジ(LDR)画像からHDRビデオを生成するために、重要なステップの1つはLDRフレーム間の動き補償である。
しかし, 飽和や複雑な動きが存在する場合, これらの手法は流れ推定誤差に苦しむ。
本稿では,LDRフレームを特徴空間に整列し,画素領域の光学的フローに依存しないHDRフレームに整列した特徴をマージする,エンドツーエンドのHDRビデオ合成フレームワークを提案する。
具体的には、アライメントモジュールと幻覚モジュールからなるHDR(LAN-HDR)のための輝度ベースのアライメントネットワークを提案する。
アライメントモジュールは、色情報を除く輝度ベースの注意を評価することにより、フレームを隣接参照に整列する。
幻覚モジュールは、特に飽和による洗い出し領域において、鋭い詳細を生成する。
そして、アライメントと幻覚の特徴を適応的にブレンドして相互補完する。
最後に、機能をマージして最終的なHDRフレームを生成します。
トレーニングでは,フレーム復元の損失に加えて時間的損失を採用し,時間的一貫性を高め,フレッカリングを低減した。
大規模実験により, 提案手法はいくつかのベンチマークにおいて, 最先端の手法に匹敵する性能を示した。
関連論文リスト
- Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - Diffusion-Promoted HDR Video Reconstruction [45.73396977607666]
高ダイナミックレンジ(LDR)ビデオ再構成は、低ダイナミックレンジ(LDR)フレームから交互に露出したHDRビデオを生成することを目的としている。
既存の作品の多くは回帰に基づくパラダイムにのみ依存しており、ゴーストのアーティファクトや飽和した地域での詳細の欠如といった悪影響につながっている。
本稿では,HDR-V-Diffと呼ばれるHDR映像再構成のための拡散促進手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T13:38:10Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - DeepHS-HDRVideo: Deep High Speed High Dynamic Range Video Reconstruction [23.341594337637545]
予め訓練されたビデオフレームネットワークを用いて、入力されたLDRフレームを整列する。
これにより,LDRフレームのアライメントが向上する。
また、高速FPS HDRビデオを生成するための最初の方法も提示する。
論文 参考訳(メタデータ) (2022-10-10T04:27:45Z) - StyleLight: HDR Panorama Generation for Lighting Estimation and Editing [98.20167223076756]
単一視野(LFOV)画像から高ダイナミックレンジ(GAN)屋内パノラマ光を生成するための新しい照明推定・編集フレームワークを提案する。
本フレームワークは室内照明推定における最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T17:58:58Z) - HDR Reconstruction from Bracketed Exposures and Events [12.565039752529797]
高品質なHDR画像の再構成は、現代の計算写真の中心にある。
特徴領域におけるブラケット画像とイベントを融合したマルチモーダルなエンドツーエンド学習型HDRイメージングシステムを提案する。
我々のフレームワークは、スライディングウィンドウを使用して入力イベントストリームをサブサンプリングすることで、イベントの時間分解能を高める。
論文 参考訳(メタデータ) (2022-03-28T15:04:41Z) - HDRVideo-GAN: Deep Generative HDR Video Reconstruction [19.837271879354184]
本稿では,LDR シーケンスからのHDR ビデオ再構成を交互に行うための,エンドツーエンドの GAN ベースのフレームワークを提案する。
まず、ノイズの多いLDRビデオからクリーンなLDRフレームを抽出し、自己教師付き環境で訓練された聴覚ネットワークと交互に露光する。
次に、隣接する交互露光フレームを基準フレームに整列し、完全対向設定で高品質なHDRフレームを再構成する。
論文 参考訳(メタデータ) (2021-10-22T14:02:03Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。