論文の概要: Learning for Unconstrained Space-Time Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2102.13011v1
- Date: Thu, 25 Feb 2021 17:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:49:26.026038
- Title: Learning for Unconstrained Space-Time Video Super-Resolution
- Title(参考訳): 非拘束時空間ビデオの超解像学習
- Authors: Zhihao Shi, Chengqi Li, Linhui Dai, Xiaohong Liu, Jun Chen, Timothy N.
Davidson
- Abstract要約: 本稿では,時空間相関を有効活用して性能を向上させる,制約のない時空間ビデオ超解像ネットワークを提案する。
実験の結果,提案手法は最先端技術よりもはるかに少ないパラメータと実行時間を必要とすることがわかった。
- 参考スコア(独自算出の注目度): 15.184116481135128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen considerable research activities devoted to video
enhancement that simultaneously increases temporal frame rate and spatial
resolution. However, the existing methods either fail to explore the intrinsic
relationship between temporal and spatial information or lack flexibility in
the choice of final temporal/spatial resolution. In this work, we propose an
unconstrained space-time video super-resolution network, which can effectively
exploit space-time correlation to boost performance. Moreover, it has complete
freedom in adjusting the temporal frame rate and spatial resolution through the
use of the optical flow technique and a generalized pixelshuffle operation. Our
extensive experiments demonstrate that the proposed method not only outperforms
the state-of-the-art, but also requires far fewer parameters and less running
time.
- Abstract(参考訳): 近年,時間的フレームレートと空間分解能を同時に向上させる映像エンハンスメントに関する研究が盛んに行われている。
しかし、既存の方法は時間的情報と空間的情報の間の本質的な関係を探らないか、最終的な時間的/空間的解決の選択において柔軟性がないかのいずれかである。
本研究では, 時空間相関を効果的に活用し, 性能を向上できる, 制約のない時空間ビデオ超解像ネットワークを提案する。
さらに、光学フロー技術と一般化ピクセルシャッフル演算を用いることで、時間フレームレートと空間分解能の調整が完全に自由である。
実験の結果,提案手法は最先端技術よりもはるかに少ないパラメータと実行時間を必要とすることがわかった。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Towards Interpretable Video Super-Resolution via Alternating
Optimization [115.85296325037565]
低フレームのぼかしビデオから高フレームの高解像度のシャープビデオを生成することを目的とした実時間ビデオ超解法(STVSR)問題について検討する。
本稿では,モデルベースと学習ベースの両方の手法を用いて,解釈可能なSTVSRフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T21:34:05Z) - Enhancing Space-time Video Super-resolution via Spatial-temporal Feature
Interaction [9.456643513690633]
時空ビデオ超解像(STVSR)の目的は、ビデオのフレームレートと空間解像度の両方を増加させることである。
近年のアプローチでは、エンドツーエンドのディープニューラルネットワークを用いてSTVSRを解く。
本研究では,空間的・時間的相関を利用してSTVSRを強化する空間的・時間的特徴相互作用ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T22:10:57Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - MEGAN: Memory Enhanced Graph Attention Network for Space-Time Video
Super-Resolution [8.111645835455658]
時空ビデオスーパー解像度(STVSR)は、対応する低フレームレートの低解像度ビデオシーケンスから高解像度ビデオシーケンスを構築することを目的としている。
近年の時空超解像における時空間情報の考察の成功に触発されて,本研究の主な目的は空間的・時空間的相関を十分に考慮することである。
論文 参考訳(メタデータ) (2021-10-28T17:37:07Z) - Space-Time-Aware Multi-Resolution Video Enhancement [25.90440000711309]
STARnetと呼ばれる提案されたモデルは、空間と時間で共同で解決される。
また,STARnetは,空間,空間,時間的ビデオの高解像度化を,公開データセットのかなりのマージンで実現していることを示す。
論文 参考訳(メタデータ) (2020-03-30T00:33:17Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。