論文の概要: A Novel Dual Dense Connection Network for Video Super-resolution
- arxiv url: http://arxiv.org/abs/2203.02723v1
- Date: Sat, 5 Mar 2022 12:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 12:30:52.635938
- Title: A Novel Dual Dense Connection Network for Video Super-resolution
- Title(参考訳): ビデオ超解像のための新しいデュアルデンス接続ネットワーク
- Authors: Guofang Li and Yonggui Zhu
- Abstract要約: ビデオ・スーパーレゾリューション(VSR)とは、対応する低解像度(LR)ビデオから高解像度(HR)ビデオの再構成を指す。
本稿では,高画質超解像(SR)を生成できる新しい二重高密度接続ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video super-resolution (VSR) refers to the reconstruction of high-resolution
(HR) video from the corresponding low-resolution (LR) video. Recently, VSR has
received increasing attention. In this paper, we propose a novel dual dense
connection network that can generate high-quality super-resolution (SR)
results. The input frames are creatively divided into reference frame,
pre-temporal group and post-temporal group, representing information in
different time periods. This grouping method provides accurate information of
different time periods without causing time information disorder. Meanwhile, we
produce a new loss function, which is beneficial to enhance the convergence
ability of the model. Experiments show that our model is superior to other
advanced models in Vid4 datasets and SPMCS-11 datasets.
- Abstract(参考訳): ビデオ超解像(VSR)とは、対応する低解像度(LR)ビデオから高解像度(HR)ビデオの再構成を指す。
近年、VSRは注目されている。
本稿では,高品質な超解像(SR)を生成できる新しい二重高密度接続ネットワークを提案する。
入力フレームは、異なる期間の情報を表す基準フレーム、時間前グループ、時間後グループに創造的に分割される。
時間情報障害を生じさせることなく、異なる期間の正確な情報を提供する。
一方,新たな損失関数が生成され,モデルの収束能力の向上に寄与する。
実験により,本モデルはvid4データセットおよびspmcs-11データセットの他の先進モデルよりも優れていることが示された。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - RBPGAN: Recurrent Back-Projection GAN for Video Super Resolution [2.265171676600799]
ビデオスーパー解像度(VSR)のためのRBPGAN(Recurrent Back-Projection Generative Adversarial Network)を提案する。
RBPGANは2つの最先端モデルを統合して、制作されたビデオの精度を損なうことなく、両方の世界で最高のものを得る。
論文 参考訳(メタデータ) (2023-11-15T18:15:30Z) - A Lightweight Recurrent Grouping Attention Network for Video
Super-Resolution [0.0]
デバイス上でのストレスを軽減するために,軽量なグループアテンションネットワークを提案する。
このモデルのパラメータは0.878Mに過ぎず、ビデオ超解像の研究における現在の主流モデルよりもはるかに低い。
実験により,本モデルが複数のデータセット上で最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-09-25T08:21:49Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - STRPM: A Spatiotemporal Residual Predictive Model for High-Resolution
Video Prediction [78.129039340528]
本稿では,高解像度映像予測のための時間残差予測モデル(STRPM)を提案する。
STRPMは、既存の様々な方法と比較して、より満足な結果を得ることができる。
実験の結果, STRPMは既存手法と比較して良好な結果が得られた。
論文 参考訳(メタデータ) (2022-03-30T06:24:00Z) - Revisiting Temporal Modeling for Video Super-resolution [47.90584361677039]
ビデオ超解像のための3つの時間的モデリング手法(初期核融合2次元CNN、低核融合3次元CNN、リカレントニューラルネットワーク)について検討・比較を行った。
また,Recurrent Residual Network (RRN) を提案し,RNNのトレーニングの安定化を図る。
論文 参考訳(メタデータ) (2020-08-13T09:09:37Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。