論文の概要: Unfolding a blurred image
- arxiv url: http://arxiv.org/abs/2201.12010v1
- Date: Fri, 28 Jan 2022 09:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 15:47:11.364061
- Title: Unfolding a blurred image
- Title(参考訳): ぼやけたイメージの展開
- Authors: Kuldeep Purohit, Anshul Shah, A. N. Rajagopalan
- Abstract要約: 我々は、教師なしの方法でシャープビデオから動きの表現を学習する。
次に、ビデオ再構成の代用タスクを実行する畳み込みリカレントビデオオートエンコーダネットワークを訓練する。
ぼやけた画像のためのモーションエンコーダのガイドトレーニングに使用される。
このネットワークは、ぼやけた画像から埋め込み動作情報を抽出し、トレーニングされたリカレントビデオデコーダとともにシャープなビデオを生成する。
- 参考スコア(独自算出の注目度): 36.519356428362286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a solution for the goal of extracting a video from a single motion
blurred image to sequentially reconstruct the clear views of a scene as beheld
by the camera during the time of exposure. We first learn motion representation
from sharp videos in an unsupervised manner through training of a convolutional
recurrent video autoencoder network that performs a surrogate task of video
reconstruction. Once trained, it is employed for guided training of a motion
encoder for blurred images. This network extracts embedded motion information
from the blurred image to generate a sharp video in conjunction with the
trained recurrent video decoder. As an intermediate step, we also design an
efficient architecture that enables real-time single image deblurring and
outperforms competing methods across all factors: accuracy, speed, and
compactness. Experiments on real scenes and standard datasets demonstrate the
superiority of our framework over the state-of-the-art and its ability to
generate a plausible sequence of temporally consistent sharp frames.
- Abstract(参考訳): 本稿では,1つの動きのぼやけた画像から映像を抽出し,露光時にカメラが保持するシーンの明快な視点を順次再構成することを目的とする。
まず,ビデオ再構成のサロゲートタスクを実行する畳み込み再生ビデオオートエンコーダネットワークのトレーニングを通じて,シャープビデオからの映像表現を教師なしで学習する。
訓練後、ぼやけた画像のためのモーションエンコーダのガイドトレーニングに使用される。
このネットワークは、ぼやけた画像から埋め込み動作情報を抽出し、トレーニングされたリカレントビデオデコーダとともにシャープビデオを生成する。
中間的なステップとして,リアルタイムの単一画像の分解と,精度,速度,コンパクト性など,競合するすべての要因に対する性能向上が可能な効率的なアーキテクチャを設計する。
実際のシーンと標準データセットに関する実験は、最先端のフレームワークの優位性と、時間的に一貫性のあるシャープフレームの生成能力を示しています。
関連論文リスト
- Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Concatenated Masked Autoencoders as Spatial-Temporal Learner [6.475592804311682]
自己教師型ビデオ表現学習のための時空間学習システムとして,Concatenated Masked Autoencoders (CatMAE)を導入した。
そこで本研究では,ビデオフレームをモデル再構成ターゲットとして用いた新しいデータ拡張戦略であるVideo-Reverse(ViRe)を提案する。
論文 参考訳(メタデータ) (2023-11-02T03:08:26Z) - Aggregating Long-term Sharp Features via Hybrid Transformers for Video
Deblurring [76.54162653678871]
本稿では,特徴集約のためのハイブリッドトランスフォーマーを用いて,隣接するフレームとシャープフレームの両方を活用するビデオデブロアリング手法を提案する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Frozen CLIP Models are Efficient Video Learners [86.73871814176795]
ビデオ認識はエンドツーエンドの学習パラダイムに支配されている。
Contrastive Vision-Language Pre-Trainingの最近の進歩は、視覚認識タスクのための新しいルートの道を開く。
高品質なビデオ認識モデルを直接トレーニングする効率的なフレームワークである、効率的なビデオ学習を提案する。
論文 参考訳(メタデータ) (2022-08-06T17:38:25Z) - Video Reconstruction from a Single Motion Blurred Image using Learned
Dynamic Phase Coding [34.76550131783525]
単一動きブル画像を用いた映像再構成のためのハイブリッド光デジタル手法を提案する。
我々は、画像取得中にレンズ開口部の動的位相符号化を学習し、運動軌跡を符号化する。
提案した計算カメラは、単一の符号化されたモーションブルー画像から、様々なフレームレートでシーンのシャープなフレームバーストを生成する。
論文 参考訳(メタデータ) (2021-12-28T02:06:44Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Video Reconstruction by Spatio-Temporal Fusion of Blurred-Coded Image
Pair [16.295479896947853]
1つのモーションブルーの画像からビデオを取り出すのは、非常に不適切な問題だ。
従来のコード付き露光フレームワークはより適しているが、時空ボリュームのごく一部しかサンプリングできない。
完全露光画像に含まれる補完情報と符号化された露光画像を用いて高忠実度映像を復元する。
論文 参考訳(メタデータ) (2020-10-20T06:08:42Z) - Task-agnostic Temporally Consistent Facial Video Editing [84.62351915301795]
タスクに依存しない、時間的に一貫した顔画像編集フレームワークを提案する。
3次元再構成モデルに基づいて,本フレームワークはより統一的で不整合な方法で複数の編集タスクを処理するように設計されている。
現状の顔画像編集法と比較すると,本フレームワークはより写実的で時間的に滑らかな映像像を生成する。
論文 参考訳(メタデータ) (2020-07-03T02:49:20Z) - Learning to Deblur and Generate High Frame Rate Video with an Event
Camera [0.0]
イベントカメラは、高速なシーンを記録する際に、動きのぼやけに悩まされない。
従来型のカメラの難読化タスクを、イベントによって指示され、残留学習タスクとなるように定式化する。
本稿では,デブロアリングと高フレームレートビデオ生成タスクを効果的に学習するネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-02T13:02:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。