論文の概要: Efficient Video Deblurring Guided by Motion Magnitude
- arxiv url: http://arxiv.org/abs/2207.13374v1
- Date: Wed, 27 Jul 2022 08:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:36:25.271844
- Title: Efficient Video Deblurring Guided by Motion Magnitude
- Title(参考訳): 運動量に導かれた高効率ビデオデブラリング
- Authors: Yusheng Wang and Yunfan Lu and Ye Gao and Lin Wang and Zhihang Zhong
and Yinqiang Zheng and Atsushi Yamashita
- Abstract要約: 本稿では,MMP(Motion magnitude prior)を高効率なディープビデオデブロアリングのためのガイダンスとして利用する新しいフレームワークを提案する。
MMPは、空間的および時間的ボケレベル情報の両方で構成されており、ビデオデブロアリングのための効率的なリカレントニューラルネットワーク(RNN)にさらに統合することができる。
- 参考スコア(独自算出の注目度): 37.25713728458234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video deblurring is a highly under-constrained problem due to the spatially
and temporally varying blur. An intuitive approach for video deblurring
includes two steps: a) detecting the blurry region in the current frame; b)
utilizing the information from clear regions in adjacent frames for current
frame deblurring. To realize this process, our idea is to detect the pixel-wise
blur level of each frame and combine it with video deblurring. To this end, we
propose a novel framework that utilizes the motion magnitude prior (MMP) as
guidance for efficient deep video deblurring. Specifically, as the pixel
movement along its trajectory during the exposure time is positively correlated
to the level of motion blur, we first use the average magnitude of optical flow
from the high-frequency sharp frames to generate the synthetic blurry frames
and their corresponding pixel-wise motion magnitude maps. We then build a
dataset including the blurry frame and MMP pairs. The MMP is then learned by a
compact CNN by regression. The MMP consists of both spatial and temporal blur
level information, which can be further integrated into an efficient recurrent
neural network (RNN) for video deblurring. We conduct intensive experiments to
validate the effectiveness of the proposed methods on the public datasets.
- Abstract(参考訳): ビデオのぼかしは、空間的にも時間的にもぼやけやすい問題である。
ビデオデブラリングの直感的なアプローチには、2つのステップがある。
a) 現在のフレームのぼやけた領域を検出すること
b) 隣接するフレームのクリア領域からの情報を現在のフレームデブラリングに利用すること。
このプロセスを実現するために、各フレームの画素単位のぼかしレベルを検出し、それをビデオデブリと組み合わせる。
そこで本研究では,MMP(Motion magnitude prior)を高効率なディープビデオデブロアのガイダンスとして利用する新しいフレームワークを提案する。
具体的には、露光時間中のその軌道に沿った画素移動が動きのぼやきのレベルと正の相関があるので、まず、高周波のシャープフレームからの光学的流れの平均の大きさを用いて、合成されたぼやけフレームと対応する画素毎の動きのマグニチュードマップを生成する。
次に、ぼやけたフレームとMMPペアを含むデータセットを構築します。
MMPは、回帰によってコンパクトCNNによって学習される。
MMPは、空間的および時間的ボケレベル情報の両方で構成されており、ビデオデブロアリングのための効率的なリカレントニューラルネットワーク(RNN)にさらに統合することができる。
提案手法の有効性を検証するために, 集中的な実験を行った。
関連論文リスト
- CMTA: Cross-Modal Temporal Alignment for Event-guided Video Deblurring [44.30048301161034]
ビデオデブロアリングは、隣接するビデオフレームから情報を集めることで、モーションレッドビデオの復元結果の品質を高めることを目的としている。
1) フレーム内機能拡張は, 単一のぼやけたフレームの露出時間内で動作し, 2) フレーム間時間的特徴アライメントは, 重要な長期時間情報を対象のフレームに収集する。
提案手法は, 合成および実世界のデブロアリングデータセットを用いた広範囲な実験により, 最先端のフレームベースおよびイベントベース動作デブロアリング法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-27T10:09:17Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z) - Deep Recurrent Neural Network with Multi-scale Bi-directional
Propagation for Video Deblurring [36.94523101375519]
本稿では,RNN-MBP(Multiscale Bi-directional Propagation)を用いたディープリカレントニューラルネットワークを提案する。
提案したアルゴリズムと既存の最先端の手法を現実世界のぼやけたシーンでよりよく評価するために、リアルワールドのぼやけたビデオデータセットも作成する。
提案アルゴリズムは3つの典型的なベンチマークにおける最先端の手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-09T11:02:56Z) - Recurrent Video Deblurring with Blur-Invariant Motion Estimation and
Pixel Volumes [14.384467317051831]
本稿では,複数のビデオフレームから情報を効果的に集約することで,映像をブルーリングする2つの新しい手法を提案する。
まず、ぼやけたフレーム間の動き推定精度を向上させるために、ぼやけた不変な動き推定学習を提案する。
第二に、動き補正のために、推定した動きを歪ませてフレームを整列する代わりに、被写体がシャープな画素を含む画素体積を用いて、動き推定誤差を解消する。
論文 参考訳(メタデータ) (2021-08-23T07:36:49Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring [92.40655035360729]
ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。
特徴空間におけるボケフレーム間の空間的対応を学習する新しい暗黙的手法を提案する。
提案手法は,新たに収集したビデオデブレーション用ハイフレームレート(1000fps)データセットとともに,広く採用されているDVDデータセット上で評価される。
論文 参考訳(メタデータ) (2021-03-07T04:33:13Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。