論文の概要: Deformable Kernel Convolutional Network for Video Extreme
Super-Resolution
- arxiv url: http://arxiv.org/abs/2010.00154v1
- Date: Thu, 1 Oct 2020 00:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:10:01.120696
- Title: Deformable Kernel Convolutional Network for Video Extreme
Super-Resolution
- Title(参考訳): ビデオ超解像のための変形性カーネル畳み込みネットワーク
- Authors: Xuan Xu, Xin Xiong, Jinge Wang, Xin Li
- Abstract要約: 本稿では,Deformable Kernel Spatial Attention Network (DKSAN) という,ディープラーニングに基づく新しいVSRアルゴリズムを提案する。
DKSANは、Vid3oCおよびIntVIDデータセット上の既存の最先端EDVRと比較して、より主観的、客観的なパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 12.117922748153429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution, which attempts to reconstruct high-resolution video
frames from their corresponding low-resolution versions, has received
increasingly more attention in recent years. Most existing approaches opt to
use deformable convolution to temporally align neighboring frames and apply
traditional spatial attention mechanism (convolution based) to enhance
reconstructed features. However, such spatial-only strategies cannot fully
utilize temporal dependency among video frames. In this paper, we propose a
novel deep learning based VSR algorithm, named Deformable Kernel Spatial
Attention Network (DKSAN). Thanks to newly designed Deformable Kernel
Convolution Alignment (DKC_Align) and Deformable Kernel Spatial Attention
(DKSA) modules, DKSAN can better exploit both spatial and temporal redundancies
to facilitate the information propagation across different layers. We have
tested DKSAN on AIM2020 Video Extreme Super-Resolution Challenge to
super-resolve videos with a scale factor as large as 16. Experimental results
demonstrate that our proposed DKSAN can achieve both better subjective and
objective performance compared with the existing state-of-the-art EDVR on
Vid3oC and IntVID datasets.
- Abstract(参考訳): 高解像度ビデオフレームを低解像度版から再構築しようとする超高解像度ビデオは、近年ますます注目を集めている。
既存のアプローチでは、変形可能な畳み込みを使用して隣接フレームを時間的に整列させ、伝統的な空間的注意機構(畳み込みベース)を適用して再構成された特徴を強化する。
しかし、このような空間のみの戦略は、映像フレーム間の時間的依存性を十分に活用できない。
本稿では,Deformable Kernel Spatial Attention Network (DKSAN) という,ディープラーニングに基づく新しいVSRアルゴリズムを提案する。
新しく設計されたDeformable Kernel Convolution Alignment (DKC_Align)とDeformable Kernel Spatial Attention (DKSA)モジュールのおかげで、DKSANは、空間的および時間的冗長性の両方をうまく利用して、異なるレイヤ間での情報伝達を容易にすることができる。
AIM2020 Video Extreme Super-Resolution ChallengeでDKSANを試してみました。
実験の結果,提案したDKSANは,既存のVid3oCおよびIntVIDデータセットのEDVRと比較して,主観的および客観的な性能が向上することが示された。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution [15.690562510147766]
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
論文 参考訳(メタデータ) (2022-10-15T08:48:29Z) - Online Video Super-Resolution with Convolutional Kernel Bypass Graft [42.32318235565591]
畳み込みカーネルバイパスグラフト (CKBG) という新しいカーネル知識伝達法に基づく極低遅延VSRアルゴリズムを提案する。
実験結果から,提案手法は最大110FPSまでのオンラインビデオシーケンスを処理可能であることがわかった。
論文 参考訳(メタデータ) (2022-08-04T05:46:51Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。