論文の概要: Restoration of Video Frames from a Single Blurred Image with Motion
Understanding
- arxiv url: http://arxiv.org/abs/2104.09134v1
- Date: Mon, 19 Apr 2021 08:32:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 00:00:37.642669
- Title: Restoration of Video Frames from a Single Blurred Image with Motion
Understanding
- Title(参考訳): 動き理解による単一ぼやけた画像からの映像フレームの復元
- Authors: Dawit Mureja Argaw, Junsik Kim, Francois Rameau, Chaoning Zhang, In So
Kweon
- Abstract要約: 単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
- 参考スコア(独自算出の注目度): 69.90724075337194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework to generate clean video frames from a single
motion-blurred image. While a broad range of literature focuses on recovering a
single image from a blurred image, in this work, we tackle a more challenging
task i.e. video restoration from a blurred image. We formulate video
restoration from a single blurred image as an inverse problem by setting clean
image sequence and their respective motion as latent factors, and the blurred
image as an observation. Our framework is based on an encoder-decoder structure
with spatial transformer network modules to restore a video sequence and its
underlying motion in an end-to-end manner. We design a loss function and
regularizers with complementary properties to stabilize the training and
analyze variant models of the proposed network. The effectiveness and
transferability of our network are highlighted through a large set of
experiments on two different types of datasets: camera rotation blurs generated
from panorama scenes and dynamic motion blurs in high speed videos.
- Abstract(参考訳): 本研究では,単一の動きブル画像からクリーンな映像フレームを生成する新しいフレームワークを提案する。
広範にわたる文献は、ぼやけた画像から1つのイメージを復元することに焦点を当てているが、本研究では、より困難な課題、すなわち課題に取り組む。
ぼやけた画像からの映像復元。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として、ぼやけた画像を観察として定式化する。
本フレームワークは,ビデオシーケンスとその基盤となる動作をエンドツーエンドに復元する空間トランスフォーマーネットワークモジュールを備えたエンコーダデコーダ構造に基づいている。
提案するネットワークのモデルの学習と解析を安定させるために,補足特性を持つ損失関数と正規化器を設計した。
ネットワークの有効性と転送性は,パノラマシーンから発生するカメラ回転のぼかしと,高速ビデオにおけるダイナミックモーションのぼかしという,2種類のデータセットの大規模な実験を通して強調される。
関連論文リスト
- Aggregating Long-term Sharp Features via Hybrid Transformers for Video
Deblurring [76.54162653678871]
本稿では,特徴集約のためのハイブリッドトランスフォーマーを用いて,隣接するフレームとシャープフレームの両方を活用するビデオデブロアリング手法を提案する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Neural Image Re-Exposure [86.42475408644822]
不適切なシャッターは、ぼやけた画像、ビデオの不連続、あるいはローリングシャッターアーティファクトにつながる可能性がある。
ニューラルネットワークに基づく画像再露法フレームワークを提案する。
視覚的潜在空間構築のためのエンコーダ、所望のシャッター戦略でニューラルフィルムに情報を集約する再露光モジュール、およびニューラルフィルムを所望の画像に「展開」するためのデコーダから構成される。
論文 参考訳(メタデータ) (2023-05-23T01:55:37Z) - Unfolding a blurred image [36.519356428362286]
我々は、教師なしの方法でシャープビデオから動きの表現を学習する。
次に、ビデオ再構成の代用タスクを実行する畳み込みリカレントビデオオートエンコーダネットワークを訓練する。
ぼやけた画像のためのモーションエンコーダのガイドトレーニングに使用される。
このネットワークは、ぼやけた画像から埋め込み動作情報を抽出し、トレーニングされたリカレントビデオデコーダとともにシャープなビデオを生成する。
論文 参考訳(メタデータ) (2022-01-28T09:39:55Z) - Video Reconstruction from a Single Motion Blurred Image using Learned
Dynamic Phase Coding [34.76550131783525]
単一動きブル画像を用いた映像再構成のためのハイブリッド光デジタル手法を提案する。
我々は、画像取得中にレンズ開口部の動的位相符号化を学習し、運動軌跡を符号化する。
提案した計算カメラは、単一の符号化されたモーションブルー画像から、様々なフレームレートでシーンのシャープなフレームバーストを生成する。
論文 参考訳(メタデータ) (2021-12-28T02:06:44Z) - Affine-modeled video extraction from a single motion blurred image [3.0080996413230667]
動き鈍化画像は、露光時間上の複数のシャープフレームの時間平均です。
本研究では,アフィンモーションモデリングを用いた一般化ビデオ抽出手法について報告する。
公開データセットと実際のキャプチャデータの両方の実験は、報告されたテクニックの最先端のパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-08T13:59:14Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Video Reconstruction by Spatio-Temporal Fusion of Blurred-Coded Image
Pair [16.295479896947853]
1つのモーションブルーの画像からビデオを取り出すのは、非常に不適切な問題だ。
従来のコード付き露光フレームワークはより適しているが、時空ボリュームのごく一部しかサンプリングできない。
完全露光画像に含まれる補完情報と符号化された露光画像を用いて高忠実度映像を復元する。
論文 参考訳(メタデータ) (2020-10-20T06:08:42Z) - Task-agnostic Temporally Consistent Facial Video Editing [84.62351915301795]
タスクに依存しない、時間的に一貫した顔画像編集フレームワークを提案する。
3次元再構成モデルに基づいて,本フレームワークはより統一的で不整合な方法で複数の編集タスクを処理するように設計されている。
現状の顔画像編集法と比較すると,本フレームワークはより写実的で時間的に滑らかな映像像を生成する。
論文 参考訳(メタデータ) (2020-07-03T02:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。