論文の概要: Blind Video Super-Resolution based on Implicit Kernels
- arxiv url: http://arxiv.org/abs/2503.07856v1
- Date: Mon, 10 Mar 2025 21:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:58.487499
- Title: Blind Video Super-Resolution based on Implicit Kernels
- Title(参考訳): インシシットカーネルを用いたブラインドビデオ超解像
- Authors: Qiang Zhu, Yuxuan Jiang, Shuyuan Zhu, Fan Zhang, David Bull, Bing Zeng,
- Abstract要約: Blind Super- resolution (BVSR) は、未知のシナリオにおいて低解像度の映像から高解像度の映像を生成することを目的とした低レベルのビジョンタスクである。
本稿では,暗黙的ニューラル表現によってパラメータ化されるマルチスケールカーネルを構成するImplicit Kernels(BVSR-IK)に基づく新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 24.203293871573802
- License:
- Abstract: Blind video super-resolution (BVSR) is a low-level vision task which aims to generate high-resolution videos from low-resolution counterparts in unknown degradation scenarios. Existing approaches typically predict blur kernels that are spatially invariant in each video frame or even the entire video. These methods do not consider potential spatio-temporal varying degradations in videos, resulting in suboptimal BVSR performance. In this context, we propose a novel BVSR model based on Implicit Kernels, BVSR-IK, which constructs a multi-scale kernel dictionary parameterized by implicit neural representations. It also employs a newly designed recurrent Transformer to predict the coefficient weights for accurate filtering in both frame correction and feature alignment. Experimental results have demonstrated the effectiveness of the proposed BVSR-IK, when compared with four state-of-the-art BVSR models on three commonly used datasets, with BVSR-IK outperforming the second best approach, FMA-Net, by up to 0.59 dB in PSNR. Source code will be available at https://github.com.
- Abstract(参考訳): Blind Video Super- resolution (BVSR) は、未知の劣化シナリオにおいて低解像度の映像から高解像度の映像を生成することを目的とした低レベルビジョンタスクである。
既存のアプローチは通常、各ビデオフレームやビデオ全体において空間的に不変であるぼやけたカーネルを予測する。
これらの手法はビデオの時空間的変化を潜在的に考慮しておらず、それによってBVSR下の性能が向上する。
本稿では,暗黙的ニューラル表現によってパラメータ化されるマルチスケールカーネル辞書を構成するImplicit Kernels,BVSR-IKに基づく新しいBVSRモデルを提案する。
また、フレーム補正と特徴アライメントの両方において正確なフィルタリングを行うための係数重みを予測するために、新しく設計されたリカレントトランスを採用している。
実験により、提案したBVSR-IKの有効性が示され、PSNRでは4つの最先端のBVSRモデルと比較され、BVSR-IKは最大0.59dBのFMA-Netよりも優れている。
ソースコードはhttps://github.com.comで入手できる。
関連論文リスト
- VQ-NeRV: A Vector Quantized Neural Representation for Videos [3.6662666629446043]
Inlicit Neural representations (INR)は、ニューラルネットワーク内のビデオのエンコーディングに優れ、ビデオ圧縮やデノイングといったコンピュータビジョンタスクにおける約束を示す。
本稿では,新しいコンポーネントであるVQ-NeRVブロックを統合した,高度なU字型アーキテクチャであるVector Quantized-NeRV(VQ-NeRV)を紹介する。
このブロックには、ネットワークの浅い残差特徴とフレーム間の残差情報を効果的に識別するコードブック機構が組み込まれている。
論文 参考訳(メタデータ) (2024-03-19T03:19:07Z) - Boosting Neural Representations for Videos with a Conditional Decoder [28.073607937396552]
Inlicit Neural representations (INRs) は、ビデオストレージと処理において有望なアプローチとして登場した。
本稿では,現在の暗黙的ビデオ表現手法のための普遍的なブースティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:32:19Z) - Deep Blind Super-Resolution for Satellite Video [30.82521485327735]
本稿では,BSVSRアルゴリズムを用いて,ピクセル単位のぼかしレベルを粗い方法で考慮し,よりシャープな手がかりを探索する手法を提案する。
ウィンドウスライド・プログレッシブ・フュージョンにより、時間的冗長性を隣接するフレームに粗く集約するために、マルチスケールの変形可能な畳み込みを用いる。
本研究では, ピラミッド空間変換モジュールを設計し, 急激な中間状態の解空間を調整し, 多レベル領域における柔軟な特徴適応を実現する。
論文 参考訳(メタデータ) (2024-01-13T18:56:18Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - Deep Recurrent Neural Network with Multi-scale Bi-directional
Propagation for Video Deblurring [36.94523101375519]
本稿では,RNN-MBP(Multiscale Bi-directional Propagation)を用いたディープリカレントニューラルネットワークを提案する。
提案したアルゴリズムと既存の最先端の手法を現実世界のぼやけたシーンでよりよく評価するために、リアルワールドのぼやけたビデオデータセットも作成する。
提案アルゴリズムは3つの典型的なベンチマークにおける最先端の手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-09T11:02:56Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - UltraSR: Spatial Encoding is a Missing Key for Implicit Image
Function-based Arbitrary-Scale Super-Resolution [74.82282301089994]
本研究では,暗黙的イメージ関数に基づく,シンプルで効果的な新しいネットワーク設計であるUltraSRを提案する。
空間符号化は,次の段階の高精度暗黙的画像機能に対する欠落鍵であることを示す。
UltraSRは、すべての超解像スケールでDIV2Kベンチマークに最新のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2021-03-23T17:36:42Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z) - Deep Blind Video Super-resolution [85.79696784460887]
本稿では,ビデオSRを曖昧なカーネルモデリング手法により解くために,深層畳み込みニューラルネットワーク(CNN)モデルを提案する。
提案したCNNモデルは、動きのぼかし推定、動きの推定、遅延画像復元モジュールからなる。
提案アルゴリズムは, より微細な構造情報を用いて, より鮮明な画像を生成することができることを示す。
論文 参考訳(メタデータ) (2020-03-10T13:43:24Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。