論文の概要: Learning Exposure Correction in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2402.17296v1
- Date: Tue, 27 Feb 2024 08:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 17:10:49.581279
- Title: Learning Exposure Correction in Dynamic Scenes
- Title(参考訳): 動的シーンにおける学習露光補正
- Authors: Jin Liu, Bo Wang, Chuanming Wang, Huiyuan Fu, Huadong Ma
- Abstract要約: 我々は、露光不足と露光過多の両方を含む、世界初の実世界のペアビデオデータセットを構築した。
空間アライメントを実現するために,2台のデジタル一眼レフカメラとビームスプリッタを用いて不適切な露光映像と通常の露光映像を同時に撮影する。
本稿では,Retinex理論に基づくビデオ露光補正ネットワーク(VECNet)を提案する。
- 参考スコア(独自算出の注目度): 26.072632568435306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing videos with wrong exposure usually produces unsatisfactory visual
effects. While image exposure correction is a popular topic, the video
counterpart is less explored in the literature. Directly applying prior
image-based methods to input videos often results in temporal incoherence with
low visual quality. Existing research in this area is also limited by the lack
of high-quality benchmark datasets. To address these issues, we construct the
first real-world paired video dataset, including both underexposure and
overexposure dynamic scenes. To achieve spatial alignment, we utilize two DSLR
cameras and a beam splitter to simultaneously capture improper and normal
exposure videos. In addition, we propose a Video Exposure Correction Network
(VECNet) based on Retinex theory, which incorporates a two-stream illumination
learning mechanism to enhance the overexposure and underexposure factors,
respectively. The estimated multi-frame reflectance and dual-path illumination
components are fused at both feature and image levels, leading to visually
appealing results. Experimental results demonstrate that the proposed method
outperforms existing image exposure correction and underexposed video
enhancement methods. The code and dataset will be available soon.
- Abstract(参考訳): 露光を間違えたビデオの撮影は、通常は不満足な視覚効果をもたらす。
画像の露光補正は一般的な話題だが、ビデオは文献ではあまり研究されていない。
ビデオ入力に事前のイメージベース手法を直接適用すると、時間的不整合が生じ、視覚的品質が低下する。
この領域における既存の研究は、高品質なベンチマークデータセットの欠如によっても制限されている。
これらの問題に対処するために、私たちは、過度な露出と過度な露出の両方を含む、最初の実世界のペアビデオデータセットを構築します。
空間アライメントを実現するために,2台のデジタル一眼レフカメラとビームスプリッタを用いて不適切な露光映像と通常の露光映像を同時に撮影する。
また,2流照明学習機構を組み込んだretinex理論に基づく映像露光補正ネットワーク(vecnet)を提案する。
推定多重フレーム反射率とデュアルパス照明成分は特徴レベルと画像レベルの両方で融合し、視覚的に魅力的な結果をもたらす。
実験結果から,提案手法は既存の画像の露出補正やビデオ強調手法よりも優れていた。
コードとデータセットは近く提供される。
関連論文リスト
- ECMamba: Consolidating Selective State Space Model with Retinex Guidance for Efficient Multiple Exposure Correction [48.77198487543991]
本稿では,反射率と照明マップの復元を目的とした,二重経路を持つ露出補正のためのMamba(ECMamba)に基づく新しいフレームワークを提案する。
具体的には、Retinex理論を導出し、入力を2つの中間空間にマッピングできるRetinex推定器を訓練する。
我々は、ECMMのコア演算子として、Retinex情報(Retinex-SS2D)で案内される新しい2次元選択状態空間層を開発する。
論文 参考訳(メタデータ) (2024-10-28T21:02:46Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - BVI-Lowlight: Fully Registered Benchmark Dataset for Low-Light Video Enhancement [44.1973928137492]
本稿では,2つの低照度条件下での様々な動きシナリオにおける40のシーンからなる,新しい低照度映像データセットを提案する。
我々は、プログラム可能な電動ドリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供する。
画像ベースのポストプロセッシングによりそれらを洗練し、異なる光レベルにおけるフレームの画素ワイドアライメントを保証する。
論文 参考訳(メタデータ) (2024-02-03T00:40:22Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Boosting Object Detection with Zero-Shot Day-Night Domain Adaptation [33.142262765252795]
精巧なデータで訓練された検出器は、可視性が低いため、低照度データに対して顕著な性能低下を示す。
我々は、ゼロショット昼夜領域適応による低照度物体検出の高速化を提案する。
本手法は,低照度データを必要とすることなく,高照度シナリオから低照度シナリオへの検出器の一般化を行う。
論文 参考訳(メタデータ) (2023-12-02T20:11:48Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Learning Multi-Scale Photo Exposure Correction [51.57836446833474]
露出を間違えた写真を撮影することは、カメラベースの画像の誤りの主な原因である。
本稿では,各サブプロブレムに個別に対処する粗大な深層ニューラルネットワーク(DNN)モデルを提案する。
提案手法は,未露出画像における既存の最先端手法と同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-25T19:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。