論文の概要: Video Super-resolution with Temporal Group Attention
- arxiv url: http://arxiv.org/abs/2007.10595v1
- Date: Tue, 21 Jul 2020 04:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:46:48.139541
- Title: Video Super-resolution with Temporal Group Attention
- Title(参考訳): 時間的グループ注意を伴うビデオ超解像
- Authors: Takashi Isobe, Songjiang Li, Xu Jia, Shanxin Yuan, Gregory Slabaugh,
Chunjing Xu, Ya-Li Li, Shengjin Wang, Qi Tian
- Abstract要約: 本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 127.21615040695941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution, which aims at producing a high-resolution video from
its corresponding low-resolution version, has recently drawn increasing
attention. In this work, we propose a novel method that can effectively
incorporate temporal information in a hierarchical way. The input sequence is
divided into several groups, with each one corresponding to a kind of frame
rate. These groups provide complementary information to recover missing details
in the reference frame, which is further integrated with an attention module
and a deep intra-group fusion module. In addition, a fast spatial alignment is
proposed to handle videos with large motion. Extensive results demonstrate the
capability of the proposed model in handling videos with various motion. It
achieves favorable performance against state-of-the-art methods on several
benchmark datasets.
- Abstract(参考訳): 対応する低解像度バージョンから高解像度ビデオを作成することを目的とした超高解像度ビデオが最近注目を集めている。
本研究では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分割され、それぞれがフレームレートの一種に対応する。
これらのグループは、参照フレームの欠落した詳細を復元するための補完的な情報を提供し、さらにアテンションモジュールと深いグループ内融合モジュールと統合される。
また,大きな動きを持つ動画を扱うために,高速な空間アライメントを提案する。
様々な動きを伴う動画の処理において,提案モデルが有効であることを示す。
いくつかのベンチマークデータセットで最先端のメソッドに対して良好なパフォーマンスを達成する。
関連論文リスト
- Conditional Modeling Based Automatic Video Summarization [70.96973928590958]
ビデオ要約の目的は、全体を伝えるのに必要な重要な情報を保持しながら、自動的にビデオを短縮することである。
映像要約法は視覚的連続性や多様性などの視覚的要因に依存しており、ビデオの内容を完全に理解するには不十分である。
映像要約への新たなアプローチは、人間が地上の真実のビデオ要約を作成する方法から得られる知見に基づいて提案されている。
論文 参考訳(メタデータ) (2023-11-20T20:24:45Z) - A Lightweight Recurrent Grouping Attention Network for Video
Super-Resolution [0.0]
デバイス上でのストレスを軽減するために,軽量なグループアテンションネットワークを提案する。
このモデルのパラメータは0.878Mに過ぎず、ビデオ超解像の研究における現在の主流モデルよりもはるかに低い。
実験により,本モデルが複数のデータセット上で最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-09-25T08:21:49Z) - STRPM: A Spatiotemporal Residual Predictive Model for High-Resolution
Video Prediction [78.129039340528]
本稿では,高解像度映像予測のための時間残差予測モデル(STRPM)を提案する。
STRPMは、既存の様々な方法と比較して、より満足な結果を得ることができる。
実験の結果, STRPMは既存手法と比較して良好な結果が得られた。
論文 参考訳(メタデータ) (2022-03-30T06:24:00Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z) - Video Super-Resolution with Long-Term Self-Exemplars [38.81851816697984]
本稿では,長期的クロススケールアグリゲーションを用いたビデオ超解像法を提案する。
我々のモデルは、類似したパッチから派生した機能を融合するマルチ参照アライメントモジュールも構成している。
提案手法を評価するため,収集したCarCamデータセットとオープンデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-24T06:07:13Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z) - Video Super-Resolution with Recurrent Structure-Detail Network [120.1149614834813]
ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
本稿では,従来のフレームを有効かつ効率的に利用し,現行のフレームを超解する新しいビデオ超解法を提案する。
論文 参考訳(メタデータ) (2020-08-02T11:01:19Z) - Transforming Multi-Concept Attention into Video Summarization [36.85535624026879]
本稿では,複雑な映像データを用いた映像要約のための新しいアテンションベースフレームワークを提案する。
我々のモデルはラベル付きデータとラベルなしデータの両方に適用でき、実世界のアプリケーションに好適である。
論文 参考訳(メタデータ) (2020-06-02T06:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。