論文の概要: Sliding Window Recurrent Network for Efficient Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2208.11608v1
- Date: Wed, 24 Aug 2022 15:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:16:28.988280
- Title: Sliding Window Recurrent Network for Efficient Video Super-Resolution
- Title(参考訳): スライディングウインドウリカレントネットワークによる高能率ビデオ高分解能化
- Authors: Wenyi Lian, Wenjing Lian
- Abstract要約: ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution (VSR) is the task of restoring high-resolution frames
from a sequence of low-resolution inputs. Different from single image
super-resolution, VSR can utilize frames' temporal information to reconstruct
results with more details. Recently, with the rapid development of convolution
neural networks (CNN), the VSR task has drawn increasing attention and many
CNN-based methods have achieved remarkable results. However, only a few VSR
approaches can be applied to real-world mobile devices due to the computational
resources and runtime limitations. In this paper, we propose a \textit{Sliding
Window based Recurrent Network} (SWRN) which can be real-time inference while
still achieving superior performance. Specifically, we notice that video frames
should have both spatial and temporal relations that can help to recover
details, and the key point is how to extract and aggregate information. Address
it, we input three neighboring frames and utilize a hidden state to recurrently
store and update the important temporal information. Our experiment on REDS
dataset shows that the proposed method can be well adapted to mobile devices
and produce visually pleasant results.
- Abstract(参考訳): ビデオ超解像(VSR)は、低解像度入力のシーケンスから高解像度フレームを復元するタスクである。
単一画像の超解像とは異なり、VSRはフレームの時間情報を利用して結果をより詳細に再構成することができる。
近年、畳み込みニューラルネットワーク(CNN)の急速な発展に伴い、VSRタスクが注目され、多くのCNNベースの手法が顕著な成果を上げている。
しかしながら、計算資源とランタイム制限のため、現実のモバイルデバイスに適用できるVSRアプローチはごくわずかである。
本稿では,リアルタイムな推論が可能で,優れた性能を保ちながら,リアルタイムな推論が可能な「textit{Sliding Window based Recurrent Network} (SWRN)」を提案する。
具体的には,映像フレームは細部を復元するための空間的・時間的関係を持つべきであり,重要な点は情報を抽出し集約する方法である。
そこで我々は,隣接する3つのフレームを入力し,隠れた状態を利用して重要な時間情報を繰り返し保存し,更新する。
redsデータセットを用いた実験では,提案手法がモバイルデバイスにうまく適合し,視覚的に快適な結果が得られることを示す。
関連論文リスト
- Cascaded Temporal Updating Network for Efficient Video Super-Resolution [47.63267159007611]
リカレントベースのVSRネットワークにおけるキーコンポーネントはモデル効率に大きな影響を及ぼす。
本稿では,効率的なVSRのための時空間更新ネットワーク(CTUN)を提案する。
CTUNは,従来の方法に比べて効率と性能のトレードオフが良好である。
論文 参考訳(メタデータ) (2024-08-26T12:59:32Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Self-Supervised Adaptation for Video Super-Resolution [7.26562478548988]
シングルイメージスーパーリゾリューション(SISR)ネットワークは、特定の入力画像にネットワークパラメータを適応させることができます。
従来のビデオスーパーレゾリューション(VSR)ネットワークがビデオフレームをテストするためにパラメータを適応できるようにする新しい学習アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-18T08:30:24Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z) - Deep Space-Time Video Upsampling Networks [47.62807427163614]
ビデオ超解像(VSR)とフレーム(FI)は伝統的なコンピュータビジョンの問題である。
本稿では, VSR と FI を効率よく融合して, 時空ビデオアップサンプリングを行うためのエンドツーエンドフレームワークを提案する。
その結果, 時間(x7速)とパラメータ数(30%)を基準線と比較し, 定量的, 質的にも良好な結果が得られた。
論文 参考訳(メタデータ) (2020-04-06T07:04:21Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。