論文の概要: Omniscient Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2103.15683v1
- Date: Mon, 29 Mar 2021 15:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:38:12.936578
- Title: Omniscient Video Super-Resolution
- Title(参考訳): ビデオの超解像
- Authors: Peng Yi and Zhongyuan Wang and Kui Jiang and Junjun Jiang and Tao Lu
and Xin Tian and Jiayi Ma
- Abstract要約: 本論文では,従来のSR出力を利用するだけでなく,現在と未来からのSR出力を活用するためのフレームワークを提案する。
本手法は客観的指標,主観的視覚効果,複雑度において最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 84.46939510200461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent video super-resolution (SR) methods either adopt an iterative
manner to deal with low-resolution (LR) frames from a temporally sliding
window, or leverage the previously estimated SR output to help reconstruct the
current frame recurrently. A few studies try to combine these two structures to
form a hybrid framework but have failed to give full play to it. In this paper,
we propose an omniscient framework to not only utilize the preceding SR output,
but also leverage the SR outputs from the present and future. The omniscient
framework is more generic because the iterative, recurrent and hybrid
frameworks can be regarded as its special cases. The proposed omniscient
framework enables a generator to behave better than its counterparts under
other frameworks. Abundant experiments on public datasets show that our method
is superior to the state-of-the-art methods in objective metrics, subjective
visual effects and complexity. Our code will be made public.
- Abstract(参考訳): 最近のビデオ超解像(SR)法は、時間的スライディングウィンドウから低解像度(LR)フレームを扱うために反復的手法を採用するか、または、推定されたSR出力を利用して現在のフレームを繰り返し再構築する。
この2つの構造を結合してハイブリッドフレームワークを作ろうとする研究はいくつかあるが、完全な役割を果たせていない。
本稿では,従来のSR出力だけでなく,現在と未来からのSR出力も活用するための全知的なフレームワークを提案する。
omniscient frameworkは、反復的、再帰的、そしてハイブリッドなフレームワークがその特別なケースと見なすことができるため、より汎用的である。
提案された全知的なフレームワークは、ジェネレータが他のフレームワークよりもうまく振る舞うことができる。
提案手法は, 客観的指標, 主観的視覚効果, 複雑さにおいて, 最先端の手法よりも優れていることを示す。
私たちのコードは公開されます。
関連論文リスト
- RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - The Best of Both Worlds: a Framework for Combining Degradation
Prediction with High Performance Super-Resolution Networks [14.804000317612305]
本稿では,ブラインドSR予測機構とディープSRネットワークを組み合わせるためのフレームワークを提案する。
我々は、我々のハイブリッドモデルが、非盲目モデルと盲目モデルの両方よりも強いSR性能を一貫して達成していることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:49:35Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z) - Temporal Abstraction in Reinforcement Learning with the Successor
Representation [65.69658154078007]
我々は、後継表現(SR)が時間的抽象化の発見と利用の自然な基盤とみなすことができると論じる。
我々は、SRが時間的に延長された探索や計画を容易にする選択肢を見つけるためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-10-12T05:07:43Z) - RefSum: Refactoring Neural Summarization [16.148781118509255]
テキスト要約と要約の組み合わせの統一ビューを提供する新しいフレームワークRefactorを紹介します。
当社のシステムは、他の研究者が既製のツールとして直接使用して、さらなるパフォーマンス向上を達成できます。
論文 参考訳(メタデータ) (2021-04-15T02:58:41Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。