論文の概要: Enhancing Perceptual Quality in Video Super-Resolution through
Temporally-Consistent Detail Synthesis using Diffusion Models
- arxiv url: http://arxiv.org/abs/2311.15908v1
- Date: Mon, 27 Nov 2023 15:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 14:39:07.212246
- Title: Enhancing Perceptual Quality in Video Super-Resolution through
Temporally-Consistent Detail Synthesis using Diffusion Models
- Title(参考訳): 拡散モデルを用いた時間連続デテール合成によるビデオ超解像の知覚品質向上
- Authors: Claudio Rota, Marco Buzzelli, Joost van de Weijer
- Abstract要約: 時間条件付きモジュール(TCM)を導入することにより、単一画像超解像のための事前訓練されたDMをビデオ超解像(VSR)方式に変換する。
TCMはTemporal Texture Guidanceを使用しており、隣接フレームで合成された空間的に整列し、詳細に富んだテクスチャ情報を提供する。
本稿では、既存のVSRの最先端手法と比較して、アップスケールビデオの知覚品質を高めるためのStableVSRの有効性を実証する。
- 参考スコア(独自算出の注目度): 19.74707278564036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of video super-resolution (VSR) using
Diffusion Models (DM), and present StableVSR. Our method significantly enhances
the perceptual quality of upscaled videos by synthesizing realistic and
temporally-consistent details. We turn a pre-trained DM for single image
super-resolution into a VSR method by introducing the Temporal Conditioning
Module (TCM). TCM uses Temporal Texture Guidance, which provides
spatially-aligned and detail-rich texture information synthesized in adjacent
frames. This guides the generative process of the current frame toward
high-quality and temporally-consistent results. We introduce a Frame-wise
Bidirectional Sampling strategy to encourage the use of information from past
to future and vice-versa. This strategy improves the perceptual quality of the
results and the temporal consistency across frames. We demonstrate the
effectiveness of StableVSR in enhancing the perceptual quality of upscaled
videos compared to existing state-of-the-art methods for VSR. The code is
available at https://github.com/claudiom4sir/StableVSR.
- Abstract(参考訳): 本稿では,Diffusion Models (DM) を用いたビデオ超解像(VSR)の問題点と,現状のStableVSRについて述べる。
提案手法は,現実的かつ時間的に一貫性のある細部を合成することにより,アップスケール映像の知覚品質を著しく向上させる。
超解像のための訓練済みDMを時間条件付きモジュール(TCM)を導入し,VSR法に変換する。
tcmは時間的テクスチャガイダンスを使用し、隣接するフレームで合成された空間的に整列し、詳細なテクスチャ情報を提供する。
これは、現在のフレームの生成過程を高品質で時間的に一貫性のある結果へと導く。
本稿では,過去から未来への情報活用を促進するためのフレームワイド双方向サンプリング戦略を提案する。
この戦略は、結果の知覚的品質とフレーム間の時間的一貫性を改善する。
本稿では、既存のVSRの最先端手法と比較して、アップスケールビデオの知覚品質を高めるためのStableVSRの有効性を示す。
コードはhttps://github.com/claudiom4sir/stablevsrで入手できる。
関連論文リスト
- Inflation with Diffusion: Efficient Temporal Adaptation for
Text-to-Video Super-Resolution [19.748048455806305]
本稿では,効率的な拡散型テキスト・ビデオ・スーパーレゾリューション(SR)チューニング手法を提案する。
本稿では,我々の拡張アーキテクチャに基づく異なるチューニング手法について検討し,計算コストと超解像品質のトレードオフを報告する。
論文 参考訳(メタデータ) (2024-01-18T22:25:16Z) - Video Super-Resolution Transformer with Masked Inter&Intra-Frame Attention [46.74923772450212]
Vision Transformerは、低解像度のシーケンスで欠落した詳細を復元することに成功した。
VSRの精度が優れているにもかかわらず、計算負荷と大きなメモリフットプリントはトランスフォーマーベースのVSRモデルの展開を妨げる。
マスク内およびフレーム間アテンション(MIA-VSR)を用いた新しい特徴レベルマスキング処理フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-12T00:49:49Z) - Motion-Guided Latent Diffusion for Temporally Consistent Real-world Video Super-resolution [15.197746480157651]
本稿では,事前学習した潜伏拡散モデルの強度を利用した実世界のVSRアルゴリズムを提案する。
我々は、LRビデオの時間的ダイナミクスを利用して、動作誘導損失で潜時サンプリング経路を最適化することにより拡散過程を導出する。
動作誘導潜在拡散に基づくVSRアルゴリズムは、実世界のVSRベンチマークデータセットの最先端技術よりも、知覚品質が大幅に向上する。
論文 参考訳(メタデータ) (2023-12-01T14:40:07Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。