論文の概要: MEGAN: Memory Enhanced Graph Attention Network for Space-Time Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2110.15327v1
- Date: Thu, 28 Oct 2021 17:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:58:55.768074
- Title: MEGAN: Memory Enhanced Graph Attention Network for Space-Time Video
Super-Resolution
- Title(参考訳): MEGAN: 時空間ビデオ超解法のためのメモリ拡張グラフアテンションネットワーク
- Authors: Chenyu You, Lianyi Han, Aosong Feng, Ruihan Zhao, Hui Tang, Wei Fan
- Abstract要約: 時空ビデオスーパー解像度(STVSR)は、対応する低フレームレートの低解像度ビデオシーケンスから高解像度ビデオシーケンスを構築することを目的としている。
近年の時空超解像における時空間情報の考察の成功に触発されて,本研究の主な目的は空間的・時空間的相関を十分に考慮することである。
- 参考スコア(独自算出の注目度): 8.111645835455658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Space-time video super-resolution (STVSR) aims to construct a high space-time
resolution video sequence from the corresponding low-frame-rate, low-resolution
video sequence. Inspired by the recent success to consider spatial-temporal
information for space-time super-resolution, our main goal in this work is to
take full considerations of spatial and temporal correlations within the video
sequences of fast dynamic events. To this end, we propose a novel one-stage
memory enhanced graph attention network (MEGAN) for space-time video
super-resolution. Specifically, we build a novel long-range memory graph
aggregation (LMGA) module to dynamically capture correlations along the channel
dimensions of the feature maps and adaptively aggregate channel features to
enhance the feature representations. We introduce a non-local residual block,
which enables each channel-wise feature to attend global spatial hierarchical
features. In addition, we adopt a progressive fusion module to further enhance
the representation ability by extensively exploiting spatial-temporal
correlations from multiple frames. Experiment results demonstrate that our
method achieves better results compared with the state-of-the-art methods
quantitatively and visually.
- Abstract(参考訳): 時空ビデオ超解像(STVSR)は、対応する低フレームレートの低解像度ビデオシーケンスから高解像度ビデオシーケンスを構築することを目的としている。
近年の時空超解像における時空間情報の検討の成功に触発されて、この研究の主な目的は、高速な動的事象のビデオシーケンス内の空間的・時間的相関を十分に考慮することである。
この目的のために,時空ビデオ超解像のための新しい1段メモリ拡張グラフアテンションネットワーク(MEGAN)を提案する。
具体的には,特徴地図のチャネル次元に沿った相関を動的にキャプチャし,特徴表現を適応的に集約する,新しい長距離メモリグラフ集約(lmga)モジュールを構築した。
非局所的残差ブロックを導入し,グローバルな空間階層的特徴に各チャネルの機能を対応させることができる。
さらに,複数のフレームから空間-時間相関を広範囲に活用し,表現能力を高めるために,プログレッシブ・フュージョンモジュールを採用する。
実験の結果,本手法は最先端の手法と比較して,定量的かつ視覚的に優れた結果が得られることが示された。
関連論文リスト
- Global Spatial-Temporal Information-based Residual ConvLSTM for Video Space-Time Super-Resolution [29.74501891293423]
我々は、時空ビデオ超解像、すなわちGIRNetのための畳み込みニューラルネットワーク(CNN)を提案する。
高精度な特徴を生成するため,提案ネットワークは,特徴レベル時間モジュールと変形可能な畳み込みと,大域空間時空間情報に基づく残差畳み込み長短期記憶(convLSTM)を統合した。
Vimeo90Kデータセットの実験により,提案手法は,STARnet,TMNet,3DAttGAN上でのピーク信号対雑音比(1.45dB,1.14dB,0.02dB)において,最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2024-07-11T13:01:44Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Enhancing Space-time Video Super-resolution via Spatial-temporal Feature
Interaction [9.456643513690633]
時空ビデオ超解像(STVSR)の目的は、ビデオのフレームレートと空間解像度の両方を増加させることである。
近年のアプローチでは、エンドツーエンドのディープニューラルネットワークを用いてSTVSRを解く。
本研究では,空間的・時間的相関を利用してSTVSRを強化する空間的・時間的特徴相互作用ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T22:10:57Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Temporal Modulation Network for Controllable Space-Time Video
Super-Resolution [66.06549492893947]
宇宙時間のビデオ超解像度は、低解像度と低フレームレートのビデオの空間的および時間的解像度を高めることを目指しています。
変形性畳み込み法は、有望なSTVSR性能を達成したが、トレーニング段階で事前に定義された中間フレームのみを推測することができた。
本稿では,任意の中間フレームを高精度な高分解能再構成で補間する時間変調ネットワーク(tmnet)を提案する。
論文 参考訳(メタデータ) (2021-04-21T17:10:53Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z) - Space-Time-Aware Multi-Resolution Video Enhancement [25.90440000711309]
STARnetと呼ばれる提案されたモデルは、空間と時間で共同で解決される。
また,STARnetは,空間,空間,時間的ビデオの高解像度化を,公開データセットのかなりのマージンで実現していることを示す。
論文 参考訳(メタデータ) (2020-03-30T00:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。