論文の概要: VESR-Net: The Winning Solution to Youku Video Enhancement and
Super-Resolution Challenge
- arxiv url: http://arxiv.org/abs/2003.02115v1
- Date: Wed, 4 Mar 2020 15:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:58:48.178343
- Title: VESR-Net: The Winning Solution to Youku Video Enhancement and
Super-Resolution Challenge
- Title(参考訳): vesr-net: youkuビデオエンハンスメントと超高解像度チャレンジの勝利ソリューション
- Authors: Jiale Chen, Xu Tan, Chaowei Shan, Sen Liu and Zhibo Chen
- Abstract要約: 本稿では,ビデオエンハンスメントと超高解像度(VESR)のためのVESR-Netを紹介する。
我々は、ビデオフレーム間の関係を探索し、ビデオフレームを効率的に融合する、別の非ローカルモジュールを設計する。
VESR-Netにおけるこれらの設計の有効性を分析する実験を行った。
- 参考スコア(独自算出の注目度): 42.43200063565332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces VESR-Net, a method for video enhancement and
super-resolution (VESR). We design a separate non-local module to explore the
relations among video frames and fuse video frames efficiently, and a channel
attention residual block to capture the relations among feature maps for video
frame reconstruction in VESR-Net. We conduct experiments to analyze the
effectiveness of these designs in VESR-Net, which demonstrates the advantages
of VESR-Net over previous state-of-the-art VESR methods. It is worth to mention
that among more than thousands of participants for Youku video enhancement and
super-resolution (Youku-VESR) challenge, our proposed VESR-Net beat other
competitive methods and ranked the first place.
- Abstract(参考訳): 本稿では,ビデオエンハンスメントと超解像(VESR)のためのVESR-Netを提案する。
我々は、ビデオフレーム間の関係を効率的に探索する別の非ローカルモジュールを設計し、VESR-Netにおけるビデオフレーム再構成のための特徴マップ間の関係を捉えるためのチャンネルアテンション残差ブロックを設計する。
我々はVESR-Netにおけるこれらの設計の有効性を分析する実験を行い、従来のVESR手法よりもVESR-Netの利点を実証した。
なお、Youkuビデオエンハンスメントと超高解像度(Youku-VESR)チャレンジの参加者は数千人を超えており、VESR-Netが他の競争手法に勝って第一位にランクインしている。
関連論文リスト
- Arbitrary-Scale Video Super-Resolution with Structural and Textural Priors [80.92195378575671]
Arbitraスケール超解像(AVSR)の強いベースラインについて述べる。
次に、事前学習したVGGネットワークから計算したマルチスケールの構造とテクスチャをベースラインに組み込むことにより、ST-AVSRを導入する。
総合的な実験により、ST-AVSRは最先端技術よりも超解像品質、一般化能力、推論速度を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-07-13T15:27:39Z) - Scale-Adaptive Feature Aggregation for Efficient Space-Time Video
Super-Resolution [14.135298731079164]
本稿では,個々のサンプルに対して異なる処理スケールのサブネットワークを適応的に選択する,SAFA(Scale-Adaptive Feature Aggregation)ネットワークを提案する。
我々のSAFAネットワークは,PSNRにおける平均0.5dB以上の改善により,TMNetやVideoINRといった最近の最先端手法よりも優れており,パラメータの半数未満と計算コストは1/3に満たない。
論文 参考訳(メタデータ) (2023-10-26T10:18:51Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Video Event Restoration Based on Keyframes for Video Anomaly Detection [9.18057851239942]
既存のディープニューラルネットワークベースの異常検出(VAD)手法は、主にフレーム再構成やフレーム予測の経路に従う。
これらの制限を突破するために、新しいVADパラダイムを導入します。
本稿では,ビデオイベント復元のためのU字型スイニングトランスフォーマーネットワーク (USTN-DSC) を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:13:19Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。