論文の概要: Practical Real Video Denoising with Realistic Degradation Model
- arxiv url: http://arxiv.org/abs/2208.11803v1
- Date: Thu, 25 Aug 2022 00:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:47:49.922253
- Title: Practical Real Video Denoising with Realistic Degradation Model
- Title(参考訳): リアルな劣化モデルを用いた実写デノイジング
- Authors: Jiezhang Cao, Qin Wang, Jingyun Liang, Yulun Zhang, Kai Zhang, Luc Van
Gool
- Abstract要約: 既存のビデオデノケーション手法では、ノイズの多いビデオはガウスノイズを加えることによってクリーンなビデオから劣化していると仮定するのが一般的である。
本研究では,異なるノイズタイプをランダムにシャッフルして合成実雑音分解モデルを提案し,デノナイジングモデルを訓練する。
我々の劣化モデルは、トレーニングデータと実世界のデータの分配ギャップを埋めるのに役立ちます。
- 参考スコア(独自算出の注目度): 86.98559320135824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing video denoising methods typically assume noisy videos are degraded
from clean videos by adding Gaussian noise. However, deep models trained on
such a degradation assumption will inevitably give rise to poor performance for
real videos due to degradation mismatch. Although some studies attempt to train
deep models on noisy and noise-free video pairs captured by cameras, such
models can only work well for specific cameras and do not generalize well for
other videos. In this paper, we propose to lift this limitation and focus on
the problem of general real video denoising with the aim to generalize well on
unseen real-world videos. We tackle this problem by firstly investigating the
common behaviors of video noises and observing two important characteristics:
1) downscaling helps to reduce the noise level in spatial space and 2) the
information from the adjacent frames help to remove the noise of current frame
in temporal space. Motivated by these two observations, we propose a
multi-scale recurrent architecture by making full use of the above two
characteristics. Secondly, we propose a synthetic real noise degradation model
by randomly shuffling different noise types to train the denoising model. With
a synthesized and enriched degradation space, our degradation model can help to
bridge the distribution gap between training data and real-world data.
Extensive experiments demonstrate that our proposed method achieves the
state-of-the-art performance and better generalization ability than existing
methods on both synthetic Gaussian denoising and practical real video
denoising.
- Abstract(参考訳): 既存のビデオデノージング手法では、ノイズの多いビデオはガウスノイズを加えることで、クリーンなビデオから劣化する。
しかし、このような劣化仮定に基づいて訓練された深層モデルは、必然的に、劣化ミスマッチによる実際のビデオの性能低下を引き起こす。
カメラが捉えたノイズやノイズのないビデオペアの深いモデルを訓練しようとする研究もあるが、そのようなモデルは特定のカメラでしかうまく動作せず、他のビデオでは一般化できない。
本稿では,この制限を緩和し,実世界の未認識映像の汎用化を目的とした汎用実映像デノイジングの問題に焦点をあてる。
まず,映像ノイズの共通挙動を調査し,2つの重要な特徴を観測することで,この問題に取り組む。
1)ダウンスケーリングは空間空間における騒音レベル低減に役立つ。
2)隣接するフレームからの情報は,時空間における現在のフレームのノイズを取り除くのに役立つ。
これら2つの観測結果から,上記の2つの特性をフル活用したマルチスケール再帰型アーキテクチャを提案する。
次に,様々なノイズタイプをランダムにシャッフルしてデノイジングモデルを訓練し,合成実雑音劣化モデルを提案する。
合成・濃縮された分解空間により, 学習データと実世界のデータとの分散ギャップを橋渡しできる。
提案手法は, 合成ガウス音化法と実写音化法の両方において, 既存の手法よりも, 最先端の性能と汎用性が向上することを示す。
関連論文リスト
- Video Denoising in Fluorescence Guided Surgery [7.453224212428423]
蛍光ガイド下手術(FGS)は、外科医に、組織の種類や疾患領域を指示することによって、その練習をガイドするためのユニークな組織ビューを提供する、有望な手術技術である。
FGSは、蛍光信号の順にある未濾過励起光を表すレーザー漏れ光(LLL)から難いバイアスノイズ項を持つ。
従来のビデオデノーミング手法は、ゼロ平均雑音と非因果処理に重点を置いており、どちらもFGSに違反している。
論文 参考訳(メタデータ) (2024-11-14T20:15:25Z) - Denoising Reuse: Exploiting Inter-frame Motion Consistency for Efficient Video Latent Generation [36.098738197088124]
本研究では,遅延ビデオ生成を高速化する拡散再利用モードネットワークを提案する。
初期のデノナイジングステップの粗いきめのノイズは、連続するビデオフレーム間で高い動きの一貫性を示す。
Mo博士は、慎重に設計された軽量なフレーム間の動きを取り入れることで、これらの粗いノイズを次のフレームに伝播させる。
論文 参考訳(メタデータ) (2024-09-19T07:50:34Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - MANet: Improving Video Denoising with a Multi-Alignment Network [72.93429911044903]
本稿では,複数フローの提案とアテンションに基づく平均化を行うマルチアライメントネットワークを提案する。
大規模ビデオデータセットを用いた実験により,本手法は調音ベースラインモデルを0.2dBで改善することを示した。
論文 参考訳(メタデータ) (2022-02-20T00:52:07Z) - FINO: Flow-based Joint Image and Noise Model [23.9749061109964]
フローベースジョイントイメージとノイズモデル(FINO)
本研究では,フローベース・ジョイント・イメージ・アンド・ノイズモデル(FINO)を提案する。
論文 参考訳(メタデータ) (2021-11-11T02:51:54Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z) - Flexible Image Denoising with Multi-layer Conditional Feature Modulation [56.018132592622706]
条件付き特徴変調(CFM)モジュールを備えたU-Netバックボーンを備えることにより,新しいフレキシブル画像符号化ネットワーク(CFMNet)を提案する。
CFMNetは、第1層のみのチャネルワイドシフトと比較して、複数のCFM層を配置することでノイズレベル情報をよりよく利用することができる。
我々のCFMNetは、フレキシブルな非盲検のためのノイズレベル情報を利用するのに有効であり、定量的メトリクスと視覚的品質の両方の観点から、既存の深部画像復調法に対して好適に機能する。
論文 参考訳(メタデータ) (2020-06-24T06:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。