論文の概要: Video Deblurring by Fitting to Test Data
- arxiv url: http://arxiv.org/abs/2012.05228v2
- Date: Sat, 6 Mar 2021 07:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:00:11.872885
- Title: Video Deblurring by Fitting to Test Data
- Title(参考訳): 試験データに適合したビデオデブラリング
- Authors: Xuanchi Ren, Zian Qian, Qifeng Chen
- Abstract要約: 自律走行車やロボットが撮影した動画では、動きがぼやけている。
テストビデオにディープネットワークを組み込むことで,ビデオデブレーションに対する新たなアプローチを提案する。
ビデオからシャープなフレームを選択し、これらのシャープなフレームに畳み込みニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 39.41334067434719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur in videos captured by autonomous vehicles and robots can degrade
their perception capability. In this work, we present a novel approach to video
deblurring by fitting a deep network to the test video. Our key observation is
that some frames in a video with motion blur are much sharper than others, and
thus we can transfer the texture information in those sharp frames to blurry
frames. Our approach heuristically selects sharp frames from a video and then
trains a convolutional neural network on these sharp frames. The trained
network often absorbs enough details in the scene to perform deblurring on all
the video frames. As an internal learning method, our approach has no domain
gap between training and test data, which is a problematic issue for existing
video deblurring approaches. The conducted experiments on real-world video data
show that our model can reconstruct clearer and sharper videos than
state-of-the-art video deblurring approaches. Code and data are available at
https://github.com/xrenaa/Deblur-by-Fitting.
- Abstract(参考訳): 自律走行車やロボットが撮影した動画では、動きがぼやけている。
本研究では,テストビデオにディープネットワークを組み込むことにより,映像の劣化に対する新しいアプローチを提案する。
私たちのキーとなる観察は、動画の中のいくつかのフレームは、他のフレームよりもはるかにシャープなので、シャープなフレーム内のテクスチャ情報をぼやけたフレームに転送できるということです。
ビデオからシャープなフレームをヒューリスティックに選択し、これらのシャープなフレームに畳み込みニューラルネットワークを訓練する。
トレーニングされたネットワークは、シーン内の十分な詳細を吸収し、すべてのビデオフレームで遅延処理を行う。
内部学習手法として,本手法はトレーニングデータとテストデータの間にドメインギャップがなく,既存のビデオデブロアリング手法では問題となる。
実世界のビデオデータを用いた実験では,最先端のビデオデブラリング手法よりもクリアでシャープな映像を再現できることを示した。
コードとデータはhttps://github.com/xrenaa/deblur-by-fittingで入手できる。
関連論文リスト
- Aggregating Long-term Sharp Features via Hybrid Transformers for Video
Deblurring [76.54162653678871]
本稿では,特徴集約のためのハイブリッドトランスフォーマーを用いて,隣接するフレームとシャープフレームの両方を活用するビデオデブロアリング手法を提案する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video
Generators [70.17041424896507]
最近のテキスト・ビデオ生成アプローチは、計算的に重いトレーニングに依存し、大規模なビデオデータセットを必要とする。
既存のテキスト・画像合成手法を用いたゼロショットテキスト・ビデオ生成の課題を提案する。
本手法は,ビデオデータ追加の訓練を受けていないにも関わらず,近年の手法よりも多種多種多種多種多種多種多種多種多種多様である。
論文 参考訳(メタデータ) (2023-03-23T17:01:59Z) - Low Light Video Enhancement by Learning on Static Videos with
Cross-Frame Attention [10.119600046984088]
静的ビデオ上でのモデルトレーニングにより,低光度映像強調のための深層学習法を開発した。
既存の方法はフレーム単位で動作し、隣接するフレーム間の関係を利用できない。
本手法は,静的ビデオのみをトレーニングした場合に,他の最先端ビデオ強調アルゴリズムよりも優れることを示す。
論文 参考訳(メタデータ) (2022-10-09T15:49:46Z) - Look at Adjacent Frames: Video Anomaly Detection without Offline
Training [21.334952965297667]
オフラインでモデルをトレーニングすることなく,ビデオ中の異常事象を検出する手法を提案する。
具体的には,画像フレーム,ピクセル・バイ・ピクセルを周波数情報から再構成するためにオンラインで最適化されたランダムな多層パーセプトロンをベースとした。
インクリメンタルラーナは、各フレームを観察した後に多層パーセプトロンのパラメータを更新するために使用され、ビデオストリームに沿って異常なイベントを検出することができる。
論文 参考訳(メタデータ) (2022-07-27T21:18:58Z) - Revealing Single Frame Bias for Video-and-Language Learning [115.01000652123882]
単一フレームのトレーニングモデルでは,トレーニングに複数のフレームを使用する既存手法よりも優れたパフォーマンスが得られることを示す。
この結果は、人気のあるビデオおよび言語データセットに強い「静的な外観バイアス」が存在することを明らかにする。
本稿では、時間的モデリングを促進するために、既存のきめ細かい行動認識データセットに基づく2つの新しい検索タスクを提案する。
論文 参考訳(メタデータ) (2022-06-07T16:28:30Z) - Efficient Video Segmentation Models with Per-frame Inference [117.97423110566963]
推論のオーバーヘッドを導入することなく、時間的一貫性を改善することに注力する。
本稿では,時間的一貫性の喪失やオンライン/オフラインの知識蒸留手法など,ビデオシーケンスから学ぶためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-02-24T23:51:36Z) - Self-supervised Video Representation Learning Using Inter-intra
Contrastive Framework [43.002621928500425]
ビデオから特徴表現を学習するための自己教師付き手法を提案する。
映像表現が重要であるので、負のサンプルを非負のサンプルによって拡張する。
学習した映像表現を用いて,映像検索と映像認識タスクの実験を行う。
論文 参考訳(メタデータ) (2020-08-06T09:08:14Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。