論文の概要: Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution
- arxiv url: http://arxiv.org/abs/2207.01797v1
- Date: Tue, 5 Jul 2022 03:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 14:59:48.575030
- Title: Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution
- Title(参考訳): ビデオスーパーレゾリューションにおける共振・照度向上のための深度パラメトリック3次元フィルタ
- Authors: Xiaogang Xu, Ruixing Wang, Chi-Wing Fu, Jiaya Jia
- Abstract要約: 本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
- 参考スコア(独自算出の注目度): 96.89588203312451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the quality improvement brought by the recent methods, video
super-resolution (SR) is still very challenging, especially for videos that are
low-light and noisy. The current best solution is to subsequently employ best
models of video SR, denoising, and illumination enhancement, but doing so often
lowers the image quality, due to the inconsistency between the models. This
paper presents a new parametric representation called the Deep Parametric 3D
Filters (DP3DF), which incorporates local spatiotemporal information to enable
simultaneous denoising, illumination enhancement, and SR efficiently in a
single encoder-and-decoder network. Also, a dynamic residual frame is jointly
learned with the DP3DF via a shared backbone to further boost the SR quality.
We performed extensive experiments, including a large-scale user study, to show
our method's effectiveness. Our method consistently surpasses the best
state-of-the-art methods on all the challenging real datasets with top PSNR and
user ratings, yet having a very fast run time.
- Abstract(参考訳): 最近の方法による品質改善にもかかわらず、特に低照度でノイズの多いビデオでは、ビデオ超解像(SR)は非常に難しい。
現在の最良の解決策は、後にビデオSRの最良のモデル、デノイング、照明強化を採用することであるが、モデル間の不整合のため、しばしば画質を低下させる。
本稿では,1つのエンコーダ・デコーダネットワークにおいて,局所時空間情報を組み込んで,同時 denoising, 照明強調, SR を効率よく実現する,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
本手法の有効性を示すために,大規模ユーザスタディを含む広範な実験を行った。
提案手法は,PSNRとユーザ評価が上位で,かつ非常に高速な実行時間を持つ,挑戦的な実データセットに対して,常に最先端の手法を超越している。
関連論文リスト
- MotionAura: Generating High-Quality and Motion Consistent Videos using Discrete Diffusion [3.7270979204213446]
ビデオ処理の課題に対処するための4つの重要なコントリビューションを提示する。
まず,3次元逆ベクトル量子化バリエンコエンコオートコーダを紹介する。
次に,テキスト・ビデオ生成フレームワークであるMotionAuraを紹介する。
第3に,スペクトル変換器を用いたデノナイジングネットワークを提案する。
第4に,Sketch Guided Videopaintingのダウンストリームタスクを導入する。
論文 参考訳(メタデータ) (2024-10-10T07:07:56Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - FastLLVE: Real-Time Low-Light Video Enhancement with Intensity-Aware
Lookup Table [21.77469059123589]
我々は,フレーム間輝度の一貫性を効果的に維持するために,FastLLVEという名前の効率的なパイプラインを提案する。
FastLLVEは1080pのビデオを$mathit50+$ Frames Per Second (FPS)で処理できる。
論文 参考訳(メタデータ) (2023-08-13T11:54:14Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Towards Interpretable Video Super-Resolution via Alternating
Optimization [115.85296325037565]
低フレームのぼかしビデオから高フレームの高解像度のシャープビデオを生成することを目的とした実時間ビデオ超解法(STVSR)問題について検討する。
本稿では,モデルベースと学習ベースの両方の手法を用いて,解釈可能なSTVSRフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T21:34:05Z) - Image Super-Resolution via Iterative Refinement [53.57766722279425]
SR3は再精製による超解像へのアプローチである。
確率的デノイジング拡散モデルを条件付き画像生成に適応させる。
様々な倍率係数の超分解能タスクに強い性能を示す。
論文 参考訳(メタデータ) (2021-04-15T17:50:42Z) - A Novel Unified Model for Multi-exposure Stereo Coding Based on Low Rank
Tucker-ALS and 3D-HEVC [0.6091702876917279]
テンソル低ランク近似に基づくマルチ露光ステレオ画像の効率的な符号化法を提案する。
マルチ露光融合によりデコーダのHDRステレオ出力が生成され、リアリズムと両眼3D深度が向上する。
3D-HEVCによる符号化は、低ランク近似表現におけるフレーム内、ビュー間、コンポーネント間冗長性を利用して提案されたスキーム効率を向上させる。
論文 参考訳(メタデータ) (2021-04-10T10:10:14Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。