論文の概要: A Lightweight Recurrent Grouping Attention Network for Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2309.13940v1
- Date: Mon, 25 Sep 2023 08:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 16:44:00.701207
- Title: A Lightweight Recurrent Grouping Attention Network for Video
Super-Resolution
- Title(参考訳): ビデオ超解像のための軽量リカレントグループ注意ネットワーク
- Authors: Yonggui Zhu, Guofang Li
- Abstract要約: デバイス上でのストレスを軽減するために,軽量なグループアテンションネットワークを提案する。
このモデルのパラメータは0.878Mに過ぎず、ビデオ超解像の研究における現在の主流モデルよりもはるかに低い。
実験により,本モデルが複数のデータセット上で最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective aggregation of temporal information of consecutive frames is the
core of achieving video super-resolution. Many scholars have utilized
structures such as sliding windows and recurrent to gather spatio-temporal
information of frames. However, although the performance of the constructed VSR
models is improving, the size of the models is also increasing, exacerbating
the demand on the equipment. Thus, to reduce the stress on the device, we
propose a novel lightweight recurrent grouping attention network. The
parameters of this model are only 0.878M, which is much lower than the current
mainstream model for studying video super-resolution. We design forward feature
extraction module and backward feature extraction module to collect temporal
information between consecutive frames from two directions. Moreover, a new
grouping mechanism is proposed to efficiently collect spatio-temporal
information of the reference frame and its neighboring frames. The attention
supplementation module is presented to further enhance the information
gathering range of the model. The feature reconstruction module aims to
aggregate information from different directions to reconstruct high-resolution
features. Experiments demonstrate that our model achieves state-of-the-art
performance on multiple datasets.
- Abstract(参考訳): 連続フレームの時間情報の効果的な集約は、ビデオ超解像化のコアとなる。
多くの学者はスライディングウインドウやリカレントのような構造を利用してフレームの時空間情報を収集している。
しかしながら、構築されたVSRモデルの性能は改善されているものの、モデルのサイズも増加しており、機器の需要が増している。
そこで本研究では,デバイスへのストレスを軽減するため,新しい軽量グループ化アテンションネットワークを提案する。
このモデルのパラメータは0.878Mのみであり、ビデオ超解像の研究における現在の主流モデルよりもはるかに低い。
2方向から連続するフレーム間の時間情報を集めるために,前方特徴抽出モジュールと後方特徴抽出モジュールを設計した。
さらに,参照フレームとその隣接フレームの時空間情報を効率的に収集する新しいグループ化機構を提案する。
注意補助モジュールは、モデルの情報収集範囲をさらに強化するために提示される。
特徴再構成モジュールは、異なる方向からの情報を集約して高解像度の特徴を再構築することを目的としている。
実験により,本モデルが複数のデータセット上で最先端の性能を達成することを示す。
関連論文リスト
- Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - STRPM: A Spatiotemporal Residual Predictive Model for High-Resolution
Video Prediction [78.129039340528]
本稿では,高解像度映像予測のための時間残差予測モデル(STRPM)を提案する。
STRPMは、既存の様々な方法と比較して、より満足な結果を得ることができる。
実験の結果, STRPMは既存手法と比較して良好な結果が得られた。
論文 参考訳(メタデータ) (2022-03-30T06:24:00Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - A Novel Dual Dense Connection Network for Video Super-resolution [0.0]
ビデオ・スーパーレゾリューション(VSR)とは、対応する低解像度(LR)ビデオから高解像度(HR)ビデオの再構成を指す。
本稿では,高画質超解像(SR)を生成できる新しい二重高密度接続ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-05T12:21:29Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z) - Video Super-Resolution with Recurrent Structure-Detail Network [120.1149614834813]
ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
本稿では,従来のフレームを有効かつ効率的に利用し,現行のフレームを超解する新しいビデオ超解法を提案する。
論文 参考訳(メタデータ) (2020-08-02T11:01:19Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z) - Unsupervised Video Decomposition using Spatio-temporal Iterative
Inference [31.97227651679233]
マルチオブジェクトシーンの分解は、学習において急速に進化する問題である。
色情報のないモデルでも精度が高いことを示す。
本稿では, モデルの分解, セグメント化予測能力を実証し, いくつかのベンチマークデータセットにおいて, 最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T22:57:17Z) - TAM: Temporal Adaptive Module for Video Recognition [60.83208364110288]
時間適応モジュール(bf TAM)は、自身の特徴マップに基づいてビデオ固有の時間カーネルを生成する。
Kinetics-400およびSomethingデータセットの実験は、我々のTAMが他の時間的モデリング手法より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2020-05-14T08:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。