論文の概要: Stable Long-Term Recurrent Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2112.08950v1
- Date: Thu, 16 Dec 2021 15:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 14:51:14.787243
- Title: Stable Long-Term Recurrent Video Super-Resolution
- Title(参考訳): 安定した長時間連続ビデオスーパーリゾリューション
- Authors: Benjamin Naoto Chiche, Arnaud Woiselle, Joana Frontera-Pons, Jean-Luc
Starck
- Abstract要約: リプシッツ安定性理論に基づいて、安定かつ競争力のある再帰VSRネットワークの新たな枠組みを導入する。
本稿では,この枠組みに基づいて,MRVSR(Middle Recurrent Video Super-Resolution)と呼ばれる新たなリカレントVSRネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent models have gained popularity in deep learning (DL) based video
super-resolution (VSR), due to their increased computational efficiency,
temporal receptive field and temporal consistency compared to sliding-window
based models. However, when inferring on long video sequences presenting low
motion (i.e. in which some parts of the scene barely move), recurrent models
diverge through recurrent processing, generating high frequency artifacts. To
the best of our knowledge, no study about VSR pointed out this instability
problem, which can be critical for some real-world applications. Video
surveillance is a typical example where such artifacts would occur, as both the
camera and the scene stay static for a long time.
In this work, we expose instabilities of existing recurrent VSR networks on
long sequences with low motion. We demonstrate it on a new long sequence
dataset Quasi-Static Video Set, that we have created. Finally, we introduce a
new framework of recurrent VSR networks that is both stable and competitive,
based on Lipschitz stability theory. We propose a new recurrent VSR network,
coined Middle Recurrent Video Super-Resolution (MRVSR), based on this
framework. We empirically show its competitive performance on long sequences
with low motion.
- Abstract(参考訳): リカレントモデルが深層学習(DL)ベースのビデオ超解像(VSR)で人気を集めているのは、スライディングウインドウモデルと比較して、計算効率、時間的受容場、時間的一貫性が増しているからである。
しかし、低動作(シーンの一部がほとんど動かない)を示す長いビデオシーケンスを推測すると、繰り返し処理によって繰り返しモデルが分岐し、高周波のアーティファクトが生成される。
我々の知る限りでは、VSRに関する研究では、この不安定性問題が指摘されていない。
ビデオ監視は、カメラとシーンの両方が長時間静止しているため、そのようなアーティファクトが発生する典型的な例である。
本研究では,既存のvsrネットワークの不安定性を低動きの長い系列に露呈する。
我々はこれを、作成した新しい長いシーケンスデータセットであるQuasi-Static Video Setで実演する。
最後に,リプシッツ安定理論に基づき,安定かつ競争力のある再帰型vsrネットワークの新たなフレームワークを提案する。
本稿では,この枠組みに基づいて,MRVSR(Middle Recurrent Video Super-Resolution)と呼ばれる新たなリカレントVSRネットワークを提案する。
低動きの長いシーケンスで、その競争力を実証的に示します。
関連論文リスト
- Time-series Initialization and Conditioning for Video-agnostic Stabilization of Video Super-Resolution using Recurrent Networks [13.894981567082997]
ビデオスーパーレゾリューション(VSR)のためのリカレントニューラルネットワーク(RNN)は、通常ランダムにクリップされ、トリミングされた短いビデオで訓練される。
このRNNは超解像ショートビデオに最適化されているため、長いビデオのVSRはドメインギャップのために劣化する。
本稿では,VSRにおけるRNNのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T13:16:07Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - VRT: A Video Restoration Transformer [126.79589717404863]
ビデオ復元(例:ビデオ超解像度)は、高品質のフレームを低品質のフレームから復元することを目的としている。
並列フレーム予測と長距離時間依存性モデリング機能を備えたビデオ再生変換器(VRT)を提案する。
論文 参考訳(メタデータ) (2022-01-28T17:54:43Z) - Reconstructive Sequence-Graph Network for Video Summarization [107.0328985865372]
キーショットベースのビデオ要約には,インナーショットとインショット間の依存関係の活用が不可欠だ。
フレームとショットをシーケンスおよびグラフ階層としてエンコードする再構成シーケンスグラフネットワーク(RSGN)を提案する。
リコンストラクタを開発し、サマリージェネレータに報奨を与えることにより、ジェネレータを教師なしの方法で最適化することができる。
論文 参考訳(メタデータ) (2021-05-10T01:47:55Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。