論文の概要: SALVE: Self-supervised Adaptive Low-light Video Enhancement
- arxiv url: http://arxiv.org/abs/2212.11484v1
- Date: Thu, 22 Dec 2022 05:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:10:11.539468
- Title: SALVE: Self-supervised Adaptive Low-light Video Enhancement
- Title(参考訳): SALVE: 自己監督型適応型低照度ビデオエンハンスメント
- Authors: Zohreh Azizi, C.-C. Jay Kuo
- Abstract要約: 本研究では, 自己監督型低照度映像強調法(SALVE)を提案する。
SALVEはまず、入力された低照度ビデオのいくつかのキーフレーム上で、効果的なRetinexベースの低照度画像強調を行う。
次に、リッジ回帰を通して低照度フレームから強化光フレームへのマッピングを学習する。
- 参考スコア(独自算出の注目度): 38.484332924924914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A self-supervised adaptive low-light video enhancement (SALVE) method is
proposed in this work. SALVE first conducts an effective Retinex-based
low-light image enhancement on a few key frames of an input low-light video.
Next, it learns mappings from the low- to enhanced-light frames via Ridge
regression. Finally, it uses these mappings to enhance the remaining frames in
the input video. SALVE is a hybrid method that combines components from a
traditional Retinex-based image enhancement method and a learning-based method.
The former component leads to a robust solution which is easily adaptive to new
real-world environments. The latter component offers a fast, computationally
inexpensive and temporally consistent solution. We conduct extensive
experiments to show the superior performance of SALVE. Our user study shows
that 87% of participants prefer SALVE over prior work.
- Abstract(参考訳): 本研究では,自己監督型低照度映像強調法(SALVE)を提案する。
SALVEは、入力された低照度ビデオのいくつかのキーフレーム上で、効果的なRetinexベースの低照度画像強調を行う。
次に、リッジ回帰を通じて低照度から高輝度のフレームへのマッピングを学ぶ。
最後に、これらのマッピングを使用して、入力ビデオの残りのフレームを強化する。
SALVEは従来のRetinexベースの画像強調法と学習ベースの手法を組み合わせたハイブリッド手法である。
前者のコンポーネントは、新しい現実世界環境に容易に適応できる堅牢なソリューションにつながる。
後者のコンポーネントは高速で安価で時間的に一貫したソリューションを提供する。
SALVEの優れた性能を示すための広範な実験を行った。
ユーザ調査の結果,参加者の87%が先行作業よりもサルブを好んでいることがわかった。
関連論文リスト
- DiffIR2VR-Zero: Zero-Shot Video Restoration with Diffusion-based Image Restoration Models [9.145545884814327]
本稿では,事前学習画像復元拡散モデルを用いたゼロショット映像復元手法を提案する。
本手法は,ゼロショット映像復元において最高の性能を発揮することを示す。
本手法は任意の2次元復元拡散モデルで動作し,広範に再トレーニングを行うことなく,映像強調作業のための汎用的で強力なツールを提供する。
論文 参考訳(メタデータ) (2024-07-01T17:59:12Z) - VJT: A Video Transformer on Joint Tasks of Deblurring, Low-light
Enhancement and Denoising [45.349350685858276]
ビデオ復元作業は、低品質な観察から高品質な映像を復元することを目的としている。
ビデオはしばしば、ぼやけ、低照度、ノイズなど、さまざまな種類の劣化に直面します。
本稿では,映像の劣化,低照度化,雑音化といった共同作業に対して,効率的なエンドツーエンドビデオトランスフォーマ手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T10:27:56Z) - VaQuitA: Enhancing Alignment in LLM-Assisted Video Understanding [63.075626670943116]
本稿では,映像情報とテキスト情報の相乗効果を向上するための最先端フレームワークであるVaQuitAを紹介する。
データレベルでは、フレームを均一にサンプリングする代わりに、CLIPスコアランキングでガイドされるサンプリング手法を実装している。
機能レベルでは、Visual-Query Transformerと一緒にトレーニング可能なVideo Perceiverを統合します。
論文 参考訳(メタデータ) (2023-12-04T19:48:02Z) - FastLLVE: Real-Time Low-Light Video Enhancement with Intensity-Aware
Lookup Table [21.77469059123589]
我々は,フレーム間輝度の一貫性を効果的に維持するために,FastLLVEという名前の効率的なパイプラインを提案する。
FastLLVEは1080pのビデオを$mathit50+$ Frames Per Second (FPS)で処理できる。
論文 参考訳(メタデータ) (2023-08-13T11:54:14Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - Frozen CLIP Models are Efficient Video Learners [86.73871814176795]
ビデオ認識はエンドツーエンドの学習パラダイムに支配されている。
Contrastive Vision-Language Pre-Trainingの最近の進歩は、視覚認識タスクのための新しいルートの道を開く。
高品質なビデオ認識モデルを直接トレーニングする効率的なフレームワークである、効率的なビデオ学習を提案する。
論文 参考訳(メタデータ) (2022-08-06T17:38:25Z) - A Simple Baseline for Video Restoration with Grouped Spatial-temporal
Shift [36.71578909392314]
本研究では,ビデオ復元のための簡易かつ効果的なフレームワークを提案する。
我々のアプローチは、軽量で簡単な手法であるグループ化された時空間シフトに基づいている。
我々のフレームワークは従来の最先端手法よりも優れており、計算コストの4分の1以下である。
論文 参考訳(メタデータ) (2022-06-22T02:16:47Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Low-Fidelity End-to-End Video Encoder Pre-training for Temporal Action
Localization [96.73647162960842]
TALはビデオ理解の基本的な課題だが、難しい課題だ。
既存のtalメソッドは、アクション分類の監督を通じてビデオエンコーダを事前トレーニングする。
本稿では,ローファイダリティ・エンド・ツー・エンド(LoFi)ビデオエンコーダの事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-28T22:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。