論文の概要: BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment
- arxiv url: http://arxiv.org/abs/2104.13371v1
- Date: Tue, 27 Apr 2021 17:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 14:35:40.618614
- Title: BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment
- Title(参考訳): BasicVSR++: プロパゲーションとアライメントを強化したビデオ超解法の改善
- Authors: Kelvin C.K. Chan, Shangchen Zhou, Xiangyu Xu, Chen Change Loy
- Abstract要約: 我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
- 参考スコア(独自算出の注目度): 90.81396836308085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A recurrent structure is a popular framework choice for the task of video
super-resolution. The state-of-the-art method BasicVSR adopts bidirectional
propagation with feature alignment to effectively exploit information from the
entire input video. In this study, we redesign BasicVSR by proposing
second-order grid propagation and flow-guided deformable alignment. We show
that by empowering the recurrent framework with the enhanced propagation and
alignment, one can exploit spatiotemporal information across misaligned video
frames more effectively. The new components lead to an improved performance
under a similar computational constraint. In particular, our model BasicVSR++
surpasses BasicVSR by 0.82 dB in PSNR with similar number of parameters. In
addition to video super-resolution, BasicVSR++ generalizes well to other video
restoration tasks such as compressed video enhancement. In NTIRE 2021,
BasicVSR++ obtains three champions and one runner-up in the Video
Super-Resolution and Compressed Video Enhancement Challenges. Codes and models
will be released to MMEditing.
- Abstract(参考訳): リカレント構造は、ビデオスーパーレゾリューションのタスクで一般的なフレームワーク選択である。
最先端の手法であるBasicVSRは、特徴アライメントを備えた双方向伝搬を採用し、入力ビデオ全体の情報を有効に活用する。
本研究では,2次格子伝播と流れ誘導変形性アライメントを提案することにより,ベーシックVSRを再設計する。
伝播とアライメントの強化により,再帰的枠組みの強化により,映像フレーム間の空間的情報をより効果的に活用できることを示す。
新しいコンポーネントは、同様の計算制約の下でパフォーマンスが向上する。
特に、我々のモデルであるBasicVSR++は、PSNRのパラメータ数に類似したベーシックVSRを0.82dB超える。
ビデオスーパーレゾリューションに加えて、BasicVSR++は圧縮されたビデオエンハンスメントのような他のビデオ復元タスクとよく似ている。
NTIRE 2021では、ベーシックVSR++が3つのチャンピオンを獲得し、ビデオスーパーリゾリューションと圧縮ビデオエンハンスメントチャレンジで1位を獲得した。
コードとモデルはMMEditingにリリースされる。
関連論文リスト
- Arbitrary-Scale Video Super-Resolution with Structural and Textural Priors [80.92195378575671]
Arbitraスケール超解像(AVSR)の強いベースラインについて述べる。
次に、事前学習したVGGネットワークから計算したマルチスケールの構造とテクスチャをベースラインに組み込むことにより、ST-AVSRを導入する。
総合的な実験により、ST-AVSRは最先端技術よりも超解像品質、一般化能力、推論速度を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-07-13T15:27:39Z) - A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution [15.690562510147766]
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
論文 参考訳(メタデータ) (2022-10-15T08:48:29Z) - On the Generalization of BasicVSR++ to Video Deblurring and Denoising [98.99165593274304]
我々は、BasicVSR++をビデオ復元タスクのための汎用フレームワークに拡張する。
入力と出力が同じ空間サイズを持つタスクでは、入力解像度はストライド畳み込みによって削減され効率が維持される。
BasicVSR++からの最小限の変更だけで、提案するフレームワークは、様々なビデオ復元タスクにおいて、非常に効率よく魅力的なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-04-11T17:59:56Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - BasicVSR: The Search for Essential Components in Video Super-Resolution
and Beyond [75.62146968824682]
ビデオ超解像(VSR)アプローチは、画像よりも多くのコンポーネントを持つ傾向がある。
高速化と回復性の向上を図った簡潔なパイプライン「BasicVSR」について述べる。
論文 参考訳(メタデータ) (2020-12-03T18:56:14Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。