論文の概要: Boosting the Performance of Video Compression Artifact Reduction with
Reference Frame Proposals and Frequency Domain Information
- arxiv url: http://arxiv.org/abs/2105.14962v1
- Date: Mon, 31 May 2021 13:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 23:24:29.133728
- Title: Boosting the Performance of Video Compression Artifact Reduction with
Reference Frame Proposals and Frequency Domain Information
- Title(参考訳): 参照フレームの提案と周波数領域情報によるビデオ圧縮アーチファクト削減の性能向上
- Authors: Yi Xu, Minyi Zhao, Jing Liu, Xinjian Zhang, Longwen Gao, Shuigeng
Zhou, Huyang Sun
- Abstract要約: 本稿では,既存のマルチフレーム手法の性能向上のための効果的な参照フレーム提案手法を提案する。
実験結果から,MFQE 2.0データセットの忠実度と知覚性能は最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 31.053879834073502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many deep learning based video compression artifact removal algorithms have
been proposed to recover high-quality videos from low-quality compressed
videos. Recently, methods were proposed to mine spatiotemporal information via
utilizing multiple neighboring frames as reference frames. However, these
post-processing methods take advantage of adjacent frames directly, but neglect
the information of the video itself, which can be exploited. In this paper, we
propose an effective reference frame proposal strategy to boost the performance
of the existing multi-frame approaches. Besides, we introduce a loss based on
fast Fourier transformation~(FFT) to further improve the effectiveness of
restoration. Experimental results show that our method achieves better fidelity
and perceptual performance on MFQE 2.0 dataset than the state-of-the-art
methods. And our method won Track 1 and Track 2, and was ranked the 2nd in
Track 3 of NTIRE 2021 Quality enhancement of heavily compressed videos
Challenge.
- Abstract(参考訳): 多くのディープラーニングベースのビデオ圧縮アーティファクト除去アルゴリズムが提案され、低品質な圧縮ビデオから高品質なビデオを取り出すことができる。
近年,複数の隣接フレームを基準フレームとして,時空間情報をマイニングする手法が提案されている。
しかし、これらの後処理手法は、隣接するフレームを直接活用するが、ビデオ自体の情報を無視して利用することができる。
本稿では,既存のマルチフレーム手法の性能向上のための効果的な参照フレーム提案手法を提案する。
さらに,高速フーリエ変換(FFT)に基づく損失を導入し,修復の有効性をさらに向上させる。
実験結果から,MFQE 2.0データセットの忠実度と知覚性能は最先端の手法よりも優れていた。
また,本手法はトラック1とトラック2に勝利し,ntire 2021のトラック3で2位にランクインした。
関連論文リスト
- Enhancing Multi-Text Long Video Generation Consistency without Tuning: Time-Frequency Analysis, Prompt Alignment, and Theory [92.1714656167712]
本稿では,単一または複数プロンプトで生成されたビデオの一貫性とコヒーレンスを高めるため,時間的注意強調アルゴリズム(TiARA)を提案する。
本手法は拡散モデルにおける周波数に基づく手法の第一種である理論的保証によって支持される。
複数のプロンプトが生成するビデオについては、プロンプト品質に影響を及ぼす重要な要因をさらに調査し、プロンプトブレンド(PromptBlend)という高度なビデオプロンプトパイプラインを提案する。
論文 参考訳(メタデータ) (2024-12-23T03:56:27Z) - DiffIR2VR-Zero: Zero-Shot Video Restoration with Diffusion-based Image Restoration Models [9.145545884814327]
本稿では,事前学習画像復元拡散モデルを用いたゼロショット映像復元手法を提案する。
本手法は,ゼロショット映像復元において最高の性能を発揮することを示す。
本手法は任意の2次元復元拡散モデルで動作し,広範に再トレーニングを行うことなく,映像強調作業のための汎用的で強力なツールを提供する。
論文 参考訳(メタデータ) (2024-07-01T17:59:12Z) - Implicit Neural Representation for Videos Based on Residual Connection [0.0]
画像再構成に有効な残差接続として低解像度フレームを用いる手法を提案する。
実験の結果,本手法はPSNRの既存手法であるHNeRVを49本中46本で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-15T10:10:48Z) - Blurry Video Compression: A Trade-off between Visual Enhancement and
Data Compression [65.8148169700705]
既存のビデオ圧縮(VC)手法は主に、ビデオ内の連続フレーム間の空間的および時間的冗長性を減らすことを目的としている。
これまでの研究は、インスタント(既知の)露光時間やシャッタースピードなどの特定の設定で取得されたビデオに対して、顕著な成果を上げてきた。
本研究では,シーン内のカメラ設定やダイナミックスによって,所定の映像がぼやけてしまうという一般的なシナリオにおいて,VCの問題に取り組む。
論文 参考訳(メタデータ) (2023-11-08T02:17:54Z) - Perceptual Quality Improvement in Videoconferencing using
Keyframes-based GAN [28.773037051085318]
本稿では,ビデオ会議における圧縮アーティファクト削減のための新しいGAN手法を提案する。
まず,圧縮および参照フレームからマルチスケールの特徴を抽出する。
そして、私たちのアーキテクチャは、顔のランドマークに従って、これらの特徴を段階的に組み合わせます。
論文 参考訳(メタデータ) (2023-11-07T16:38:23Z) - Valid Information Guidance Network for Compressed Video Quality
Enhancement [10.294638746269298]
本稿では,圧縮ビデオの品質を高めるために,独自のVIG(Valid Information Guidance scheme)を提案する。
提案手法は,圧縮映像品質向上の最先端性能を,精度と効率の観点から達成する。
論文 参考訳(メタデータ) (2023-02-28T05:43:25Z) - Leveraging Video Coding Knowledge for Deep Video Enhancement [6.746400031322727]
本研究では,ビデオ圧縮の低遅延構成を利用して,既存の最先端手法である BasicVSR++ を改良する新しいフレームワークを提案する。
我々は,圧縮ビデオの最終品質を高めるために,文脈適応型ビデオ融合手法を取り入れた。
提案手法は,NTIRE22チャレンジにおいてビデオ復元と拡張のためのベンチマークとして評価され,従来の手法と比較して定量的な計測値と視覚的品質の両方の改善が達成されている。
論文 参考訳(メタデータ) (2023-02-27T09:00:29Z) - Deep Unsupervised Key Frame Extraction for Efficient Video
Classification [63.25852915237032]
本研究は、畳み込みニューラルネットワーク(CNN)と時間セグメント密度ピーククラスタリング(TSDPC)を組み合わせたキーフレームの検索方法を提案する。
提案した TSDPC は汎用的で強力なフレームワークであり,従来の研究に比べて2つの利点がある。
さらに、CNNの上部にLong Short-Term Memory Network (LSTM)を追加し、分類性能をさらに高める。
論文 参考訳(メタデータ) (2022-11-12T20:45:35Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - COMISR: Compression-Informed Video Super-Resolution [76.94152284740858]
ウェブやモバイルデバイスのほとんどのビデオは圧縮され、帯域幅が制限されると圧縮は厳しい。
圧縮によるアーティファクトを導入せずに高解像度コンテンツを復元する圧縮インフォームドビデオ超解像モデルを提案する。
論文 参考訳(メタデータ) (2021-05-04T01:24:44Z) - Multi-level Wavelet-based Generative Adversarial Network for Perceptual
Quality Enhancement of Compressed Video [51.631731922593225]
既存の手法は主に、その知覚的品質を無視しながら、圧縮映像の客観的品質を高めることに焦点を当てている。
圧縮ビデオの知覚品質を高めるために,マルチレベルウェーブレットパケット変換(WPT)に基づくGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2020-08-02T15:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。