論文の概要: Revisiting Temporal Modeling for Video Super-resolution
- arxiv url: http://arxiv.org/abs/2008.05765v2
- Date: Thu, 20 Aug 2020 02:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:49:54.811589
- Title: Revisiting Temporal Modeling for Video Super-resolution
- Title(参考訳): ビデオ超解像のための時間モデルの再検討
- Authors: Takashi Isobe, Fang Zhu, Xu Jia and Shengjin Wang
- Abstract要約: ビデオ超解像のための3つの時間的モデリング手法(初期核融合2次元CNN、低核融合3次元CNN、リカレントニューラルネットワーク)について検討・比較を行った。
また,Recurrent Residual Network (RRN) を提案し,RNNのトレーニングの安定化を図る。
- 参考スコア(独自算出の注目度): 47.90584361677039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution plays an important role in surveillance video analysis
and ultra-high-definition video display, which has drawn much attention in both
the research and industrial communities. Although many deep learning-based VSR
methods have been proposed, it is hard to directly compare these methods since
the different loss functions and training datasets have a significant impact on
the super-resolution results. In this work, we carefully study and compare
three temporal modeling methods (2D CNN with early fusion, 3D CNN with slow
fusion and Recurrent Neural Network) for video super-resolution. We also
propose a novel Recurrent Residual Network (RRN) for efficient video
super-resolution, where residual learning is utilized to stabilize the training
of RNN and meanwhile to boost the super-resolution performance. Extensive
experiments show that the proposed RRN is highly computational efficiency and
produces temporal consistent VSR results with finer details than other temporal
modeling methods. Besides, the proposed method achieves state-of-the-art
results on several widely used benchmarks.
- Abstract(参考訳): ビデオ超解像は、監視ビデオ分析と超高精細ビデオ表示において重要な役割を担い、研究と産業の両方で注目されている。
多くのディープラーニングベースのvsr手法が提案されているが、異なる損失関数とトレーニングデータセットがスーパーレゾリューション結果に大きな影響を与えるため、これらの手法を直接比較することは困難である。
本研究では,ビデオ超解像のための3つの時間的モデリング手法(2次元CNNと早期融合,3次元CNNと低速融合,リカレントニューラルネットワーク)を慎重に検討・比較する。
また,rnnのトレーニングの安定化と高分解能化のために残差学習を活用し,効率的なビデオ超解像のための新しいリカレント残差ネットワーク(rrn)を提案する。
大規模な実験により,提案手法は計算効率が高く,時間的一貫したVSR結果が他の時間的モデリング手法よりも細部で得られることがわかった。
さらに, 提案手法は, 広く使用されているベンチマークにおいて, 最先端の結果を得る。
関連論文リスト
- Cascaded Temporal Updating Network for Efficient Video Super-Resolution [47.63267159007611]
リカレントベースのVSRネットワークにおけるキーコンポーネントはモデル効率に大きな影響を及ぼす。
本稿では,効率的なVSRのための時空間更新ネットワーク(CTUN)を提案する。
CTUNは,従来の方法に比べて効率と性能のトレードオフが良好である。
論文 参考訳(メタデータ) (2024-08-26T12:59:32Z) - Motion-Guided Latent Diffusion for Temporally Consistent Real-world Video Super-resolution [15.197746480157651]
本稿では,事前学習した潜伏拡散モデルの強度を利用した実世界のVSRアルゴリズムを提案する。
我々は、LRビデオの時間的ダイナミクスを利用して、動作誘導損失で潜時サンプリング経路を最適化することにより拡散過程を導出する。
動作誘導潜在拡散に基づくVSRアルゴリズムは、実世界のVSRベンチマークデータセットの最先端技術よりも、知覚品質が大幅に向上する。
論文 参考訳(メタデータ) (2023-12-01T14:40:07Z) - Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - STRPM: A Spatiotemporal Residual Predictive Model for High-Resolution
Video Prediction [78.129039340528]
本稿では,高解像度映像予測のための時間残差予測モデル(STRPM)を提案する。
STRPMは、既存の様々な方法と比較して、より満足な結果を得ることができる。
実験の結果, STRPMは既存手法と比較して良好な結果が得られた。
論文 参考訳(メタデータ) (2022-03-30T06:24:00Z) - A comparative study of various Deep Learning techniques for
spatio-temporal Super-Resolution reconstruction of Forced Isotropic Turbulent
flows [0.45935798913942893]
本研究では,様々な最先端機械学習技術を用いて,空間的・時間的に乱流場の超解像解析を行う。
この研究で使用されるデータセットは、ジョンズ・ホプキンス乱流データベースの一部である「等方性1024粗い」データセットから抽出される。
論文 参考訳(メタデータ) (2021-07-07T17:16:55Z) - Deep Iterative Residual Convolutional Network for Single Image
Super-Resolution [31.934084942626257]
我々は、ISRResCNet(Deep Iterative Super-Resolution Residual Convolutional Network)を提案する。
残差学習アプローチを用いて、深層ネットワークを反復的に訓練することにより、強力な画像正規化と大規模最適化手法を活用する。
トレーニング可能なパラメータがいくつかある本手法は,最先端の手法と比較して,異なるスケーリング要因に対する結果を改善する。
論文 参考訳(メタデータ) (2020-09-07T12:54:14Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。