論文の概要: Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information
- arxiv url: http://arxiv.org/abs/2302.13256v1
- Date: Sun, 26 Feb 2023 08:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:02:17.204723
- Title: Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information
- Title(参考訳): 長距離時間情報を利用した連続時空ビデオ超解像
- Authors: Yuantong Zhang, Daiqin Yang, Zhenzhong Chen, Wenpeng Ding
- Abstract要約: 本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 48.20843501171717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the task of space-time video super-resolution
(ST-VSR), namely, expanding a given source video to a higher frame rate and
resolution simultaneously. However, most existing schemes either consider a
fixed intermediate time and scale in the training stage or only accept a preset
number of input frames (e.g., two adjacent frames) that fails to exploit
long-range temporal information. To address these problems, we propose a
continuous ST-VSR (C-STVSR) method that can convert the given video to any
frame rate and spatial resolution. To achieve time-arbitrary interpolation, we
propose a forward warping guided frame synthesis module and an
optical-flow-guided context consistency loss to better approximate extreme
motion and preserve similar structures among input and prediction frames. In
addition, we design a memory-friendly cascading depth-to-space module to
realize continuous spatial upsampling. Meanwhile, with the sophisticated
reorganization of optical flow, the proposed method is memory friendly, making
it possible to propagate information from long-range neighboring frames and
achieve better reconstruction quality. Extensive experiments show that the
proposed algorithm has good flexibility and achieves better performance on
various datasets compared with the state-of-the-art methods in both objective
evaluations and subjective visual effects.
- Abstract(参考訳): 本稿では,時系列ビデオの超解像(st-vsr)という課題について考察する。
しかし、既存のスキームの多くは、トレーニング段階で一定の中間時間とスケールを考慮するか、長期時間情報を利用することができない入力フレーム(例えば2つの隣接フレーム)のプリセットしか受け入れない。
これらの問題に対処するために,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(C-STVSR)法を提案する。
時間軌道補間を実現するため、入力フレームと予測フレーム間の類似構造を保存し、極端運動をよりよく近似するための前方ワーピング誘導フレーム合成モジュールと光フロー誘導コンテキスト整合損失を提案する。
さらに,空間の連続的なアップサンプリングを実現するために,メモリフレンドリーなカスケード深度空間モジュールを設計した。
一方, 光学フローの高度再構成により, 提案手法はメモリにやさしいため, 長距離隣接フレームからの情報を伝達し, より優れた再構成品質を実現することができる。
広範な実験により,提案アルゴリズムは柔軟性が高く,客観的評価と主観的視覚効果の両方において最先端手法と比較して,様々なデータセットで優れた性能が得られることが示された。
関連論文リスト
- CMTA: Cross-Modal Temporal Alignment for Event-guided Video Deblurring [44.30048301161034]
ビデオデブロアリングは、隣接するビデオフレームから情報を集めることで、モーションレッドビデオの復元結果の品質を高めることを目的としている。
1) フレーム内機能拡張は, 単一のぼやけたフレームの露出時間内で動作し, 2) フレーム間時間的特徴アライメントは, 重要な長期時間情報を対象のフレームに収集する。
提案手法は, 合成および実世界のデブロアリングデータセットを用いた広範囲な実験により, 最先端のフレームベースおよびイベントベース動作デブロアリング法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-27T10:09:17Z) - Video Dehazing via a Multi-Range Temporal Alignment Network with
Physical Prior [117.6741444489174]
ビデオのデハジングは、高い可視性とコントラストでヘイズフリーフレームを回復することを目的としている。
本稿では,物理ヘイズ先行を探索し,時間的情報を集約する新しい枠組みを提案する。
大規模な屋外ビデオデハージングベンチマークデータセットを構築した。
論文 参考訳(メタデータ) (2023-03-17T03:44:17Z) - Temporal Consistency Learning of inter-frames for Video Super-Resolution [38.26035126565062]
ビデオ超解像(VSR)は、低解像度(LR)参照フレームと複数の隣接フレームから高解像度(HR)フレームを再構成することを目的としたタスクである。
既存の手法は一般に情報伝達とフレームアライメントを探求し、VSRの性能を向上させる。
本稿では,再建されたビデオの一貫性を高めるため,VSRのための時間一貫性学習ネットワーク(TCNet)を提案する。
論文 参考訳(メタデータ) (2022-11-03T08:23:57Z) - Enhancing Space-time Video Super-resolution via Spatial-temporal Feature
Interaction [9.456643513690633]
時空ビデオ超解像(STVSR)の目的は、ビデオのフレームレートと空間解像度の両方を増加させることである。
近年のアプローチでは、エンドツーエンドのディープニューラルネットワークを用いてSTVSRを解く。
本研究では,空間的・時間的相関を利用してSTVSRを強化する空間的・時間的特徴相互作用ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T22:10:57Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。