論文の概要: DeepHS-HDRVideo: Deep High Speed High Dynamic Range Video Reconstruction
- arxiv url: http://arxiv.org/abs/2210.04429v1
- Date: Mon, 10 Oct 2022 04:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:17:30.398078
- Title: DeepHS-HDRVideo: Deep High Speed High Dynamic Range Video Reconstruction
- Title(参考訳): DeepHS-HDRVideo:超高速ダイナミックレンジビデオ再構成
- Authors: Zeeshan Khan, Parth Shettiwar, Mukul Khanna, Shanmuganathan Raman
- Abstract要約: 予め訓練されたビデオフレームネットワークを用いて、入力されたLDRフレームを整列する。
これにより,LDRフレームのアライメントが向上する。
また、高速FPS HDRビデオを生成するための最初の方法も提示する。
- 参考スコア(独自算出の注目度): 23.341594337637545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to hardware constraints, standard off-the-shelf digital cameras suffers
from low dynamic range (LDR) and low frame per second (FPS) outputs. Previous
works in high dynamic range (HDR) video reconstruction uses sequence of
alternating exposure LDR frames as input, and align the neighbouring frames
using optical flow based networks. However, these methods often result in
motion artifacts in challenging situations. This is because, the alternate
exposure frames have to be exposure matched in order to apply alignment using
optical flow. Hence, over-saturation and noise in the LDR frames results in
inaccurate alignment. To this end, we propose to align the input LDR frames
using a pre-trained video frame interpolation network. This results in better
alignment of LDR frames, since we circumvent the error-prone exposure matching
step, and directly generate intermediate missing frames from the same exposure
inputs. Furthermore, it allows us to generate high FPS HDR videos by
recursively interpolating the intermediate frames. Through this work, we
propose to use video frame interpolation for HDR video reconstruction, and
present the first method to generate high FPS HDR videos. Experimental results
demonstrate the efficacy of the proposed framework against optical flow based
alignment methods, with an absolute improvement of 2.4 PSNR value on standard
HDR video datasets [1], [2] and further benchmark our method for high FPS HDR
video generation.
- Abstract(参考訳): ハードウェアの制約により、標準のオフザシェルフデジタルカメラは低ダイナミックレンジ(LDR)と低フレーム/秒(FPS)出力に悩まされる。
高ダイナミックレンジ(HDR)ビデオ再構成における従来の作業は、光フローベースネットワークを用いて、交互に露出するLDRフレームのシーケンスを入力とし、隣接するフレームをアライメントする。
しかし、これらの手法はしばしば困難な状況で運動アーティファクトを生じさせる。
これは、光流を用いたアライメントを適用するために、代替の露出フレームを露出に合わせる必要があるためである。
したがって、LDRフレームの過飽和とノイズは不正確なアライメントをもたらす。
そこで本研究では,事前学習したビデオフレーム補間ネットワークを用いて,入力されたLDRフレームの整列を提案する。
これにより、エラーが発生しやすい露光マッチングステップを回避し、同じ露光入力から中間の紛失フレームを直接生成するため、ldrフレームのアライメントが向上する。
さらに、中間フレームを再帰的に補間することで、高いFPS HDRビデオを生成することができる。
本研究では,hdr映像再構成にビデオフレーム補間を用いることを提案し,高fps hdr映像を生成する最初の方法を提案する。
実験により,標準HDRビデオデータセット[1],[2]における2.4 PSNR値の絶対的改善と,高速FPS HDRビデオ生成のためのベンチマークにより,提案手法の有効性を実証した。
関連論文リスト
- Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - LAN-HDR: Luminance-based Alignment Network for High Dynamic Range Video
Reconstruction [20.911738532410766]
本稿では,LDRフレームを特徴空間に整列させ,その特徴をHDRフレームにマージする,エンドツーエンドのHDRビデオ合成フレームワークを提案する。
トレーニングでは、フレーム再構築損失に加えて時間的損失を採用し、時間的一貫性を高め、フリッカリングを低減する。
論文 参考訳(メタデータ) (2023-08-22T01:43:00Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - SJ-HD^2R: Selective Joint High Dynamic Range and Denoising Imaging for
Dynamic Scenes [17.867412310873732]
Ghosting artifacts, Motion blur, Lowfidelity in highlightは、高ダイナミックレンジ(LDR)イメージングにおける主な課題である。
本稿では,2つのサブネットワークを含むHDRとデノナイズパイプラインを提案する。
私たちは、最初の共同HDRとデノナイジングベンチマークデータセットを作成します。
論文 参考訳(メタデータ) (2022-06-20T07:49:56Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z) - Snapshot HDR Video Construction Using Coded Mask [25.12198906401246]
本研究は,3D-CNNを用いて,符号化LDRビデオによる共同デモサイクリング,デノナイジング,HDRビデオ再構成を行う。
得られた結果は有望であり、従来のカメラで手頃なHDRビデオ撮影に繋がる可能性がある。
論文 参考訳(メタデータ) (2021-12-05T09:32:11Z) - HDRVideo-GAN: Deep Generative HDR Video Reconstruction [19.837271879354184]
本稿では,LDR シーケンスからのHDR ビデオ再構成を交互に行うための,エンドツーエンドの GAN ベースのフレームワークを提案する。
まず、ノイズの多いLDRビデオからクリーンなLDRフレームを抽出し、自己教師付き環境で訓練された聴覚ネットワークと交互に露光する。
次に、隣接する交互露光フレームを基準フレームに整列し、完全対向設定で高品質なHDRフレームを再構成する。
論文 参考訳(メタデータ) (2021-10-22T14:02:03Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。