論文の概要: Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2110.06786v1
- Date: Wed, 13 Oct 2021 15:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 17:59:00.436395
- Title: Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution
- Title(参考訳): 空間時間ビデオ超解像のための光フロー再生型双方向リカレントネットワーク
- Authors: Yuantong Zhang, Huairui Wang, Zhenzhong Chen
- Abstract要約: 時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 52.899234731501075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider the task of space-time video super-resolution
(ST-VSR), which simultaneously increases the spatial resolution and frame rate
for a given video. However, existing methods typically suffer from difficulties
in how to efficiently leverage information from a large range of neighboring
frames or avoiding the speed degradation in the inference using deformable
ConvLSTM strategies for alignment. % Some recent LSTM-based ST-VSR methods have
achieved promising results. To solve the above problem of the existing methods,
we propose a coarse-to-fine bidirectional recurrent neural network instead of
using ConvLSTM to leverage knowledge between adjacent frames. Specifically, we
first use bi-directional optical flow to update the hidden state and then
employ a Feature Refinement Module (FRM) to refine the result. Since we could
fully utilize a large range of neighboring frames, our method leverages local
and global information more effectively. In addition, we propose an optical
flow-reuse strategy that can reuse the intermediate flow of adjacent frames,
which considerably reduces the computation burden of frame alignment compared
with existing LSTM-based designs. Extensive experiments demonstrate that our
optical-flow-reuse-based bidirectional recurrent network(OFR-BRN) is superior
to the state-of-the-art methods both in terms of accuracy and efficiency.
- Abstract(参考訳): 本稿では,空間解像度とフレームレートを同時に向上させる時空間ビデオ超解像(ST-VSR)の課題について考察する。
しかし、既存の手法は、多くの隣接するフレームからの情報を効率的に活用する方法や、変形可能なConvLSTM戦略を用いて推論の速度劣化を避けることの難しさに悩まされる。
% LSTMを用いたST-VSR法は有望な結果を得た。
本稿では,既存の手法の課題を解決するために,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗い双方向リカレントニューラルネットワークを提案する。
具体的には,まず2方向の光フローを用いて隠れ状態の更新を行い,次に特徴リファインメントモジュール(FRM)を用いて結果を改良する。
広域のフレームを十分に活用できるため,局所的およびグローバル的な情報をより効果的に活用できる。
さらに,隣接するフレームの中間フローを再利用可能な光フロー再利用方式を提案し,既存のLSTM設計と比較してフレームアライメントの計算負担を大幅に削減する。
広汎な実験により,我々のOFR-BRNは精度と効率の両面において最先端の手法よりも優れていることが示された。
関連論文リスト
- StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Group-based Bi-Directional Recurrent Wavelet Neural Networks for Video
Super-Resolution [4.9136996406481135]
ビデオ超解像(VSR)は、低解像度(LR)フレームから高解像度(HR)フレームを推定することを目的としている。
VSRの鍵となる課題は、フレーム内の空間的相関と連続フレーム間の時間的依存を効果的に活用することにある。
論文 参考訳(メタデータ) (2021-06-14T06:36:13Z) - Efficient Two-Stream Network for Violence Detection Using Separable
Convolutional LSTM [0.0]
Separable Convolutional LSTM(SepConvLSTM)と予め訓練されたMobileNetを活用した効率的な2ストリームディープラーニングアーキテクチャを提案する。
SepConvLSTMは、ConvLSTMの各ゲートの畳み込み操作を深さ方向に分離可能な畳み込みに置き換えて構築されます。
我々のモデルは、大きくて挑戦的なrwf-2000データセットの精度を2%以上上回っている。
論文 参考訳(メタデータ) (2021-02-21T12:01:48Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。