論文の概要: Valid Information Guidance Network for Compressed Video Quality
Enhancement
- arxiv url: http://arxiv.org/abs/2303.00520v1
- Date: Tue, 28 Feb 2023 05:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:40:53.078999
- Title: Valid Information Guidance Network for Compressed Video Quality
Enhancement
- Title(参考訳): 圧縮映像品質向上のためのバリデーション情報誘導ネットワーク
- Authors: Xuan Sun, Ziyue Zhang, Guannan Chen and Dan Zhu
- Abstract要約: 本稿では,圧縮ビデオの品質を高めるために,独自のVIG(Valid Information Guidance scheme)を提案する。
提案手法は,圧縮映像品質向上の最先端性能を,精度と効率の観点から達成する。
- 参考スコア(独自算出の注目度): 10.294638746269298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years deep learning methods have shown great superiority in
compressed video quality enhancement tasks. Existing methods generally take the
raw video as the ground truth and extract practical information from
consecutive frames containing various artifacts. However, they do not fully
exploit the valid information of compressed and raw videos to guide the quality
enhancement for compressed videos. In this paper, we propose a unique Valid
Information Guidance scheme (VIG) to enhance the quality of compressed videos
by mining valid information from both compressed videos and raw videos.
Specifically, we propose an efficient framework, Compressed Redundancy
Filtering (CRF) network, to balance speed and enhancement. After removing the
redundancy by filtering the information, CRF can use the valid information of
the compressed video to reconstruct the texture. Furthermore, we propose a
progressive Truth Guidance Distillation (TGD) strategy, which does not need to
design additional teacher models and distillation loss functions. By only using
the ground truth as input to guide the model to aggregate the correct
spatio-temporal correspondence across the raw frames, TGD can significantly
improve the enhancement effect without increasing the extra training cost.
Extensive experiments show that our method achieves the state-of-the-art
performance of compressed video quality enhancement in terms of accuracy and
efficiency.
- Abstract(参考訳): 近年,映像品質向上タスクにおいて,深層学習の手法が優れていることが示されている。
既存の手法は、通常、生動画を基礎的真実と捉え、様々なアーティファクトを含む連続フレームから実用的な情報を抽出する。
しかし、圧縮ビデオの品質向上を導くために、圧縮ビデオと生ビデオの有効情報を十分に活用していない。
本稿では,圧縮ビデオと生ビデオの両方から有効な情報をマイニングすることにより,圧縮ビデオの品質を高めるための,ユニークな検証情報誘導手法を提案する。
具体的には、速度と拡張のバランスをとるために、効率的なフレームワークである圧縮冗長フィルタリング(CRF)ネットワークを提案する。
情報をフィルタリングすることで冗長性を除去した後、CRFは圧縮されたビデオの有効な情報を用いてテクスチャを再構築することができる。
さらに,教師モデルや蒸留損失関数の設計を必要とせず,プログレッシブ・真実指導蒸留(tgd)戦略を提案する。
基礎的真理を入力として、モデルが生のフレームをまたいで正しい時空間対応を集約するのを助けるだけで、tgdは余分なトレーニングコストを増加させることなく、強化効果を著しく向上させることができる。
拡張実験により,圧縮映像品質向上の最先端性能を精度と効率で達成できることが示された。
関連論文リスト
- VCISR: Blind Single Image Super-Resolution with Video Compression
Synthetic Data [18.877077302923713]
本稿では,映像圧縮に基づく劣化モデルを用いて,ブラインドSISRタスクにおける低解像度画像データを合成する。
提案手法は既存の画像データセットに適用可能である。
SISR分解モデルにビデオ符号化アーティファクトを導入することで、ニューラルネットワークは、ビデオ圧縮劣化を復元する機能を備えた、画像の超解凍を可能にする。
論文 参考訳(メタデータ) (2023-11-02T05:24:19Z) - High Visual-Fidelity Learned Video Compression [6.609832462227998]
我々は,HVFVC(High Visual-Fidelity Learned Video Compression framework)を提案する。
具体的には,新たに出現した地域での貧弱な復興問題に対処するために,信頼度に基づく新しい特徴再構成手法を設計する。
広汎な実験により提案したHVFVCは、50%しか必要とせず、最新のVVC標準よりも優れた知覚品質が得られることが示された。
論文 参考訳(メタデータ) (2023-10-07T03:27:45Z) - Leveraging Video Coding Knowledge for Deep Video Enhancement [6.746400031322727]
本研究では,ビデオ圧縮の低遅延構成を利用して,既存の最先端手法である BasicVSR++ を改良する新しいフレームワークを提案する。
我々は,圧縮ビデオの最終品質を高めるために,文脈適応型ビデオ融合手法を取り入れた。
提案手法は,NTIRE22チャレンジにおいてビデオ復元と拡張のためのベンチマークとして評価され,従来の手法と比較して定量的な計測値と視覚的品質の両方の改善が達成されている。
論文 参考訳(メタデータ) (2023-02-27T09:00:29Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Leveraging Bitstream Metadata for Fast, Accurate, Generalized Compressed
Video Quality Enhancement [74.1052624663082]
圧縮ビデオの細部を復元する深層学習アーキテクチャを開発した。
これにより,従来の圧縮補正法と比較して復元精度が向上することを示す。
我々は、ビットストリームで容易に利用できる量子化データに対して、我々のモデルを条件付けする。
論文 参考訳(メタデータ) (2022-01-31T18:56:04Z) - Self-Conditioned Probabilistic Learning of Video Rescaling [70.10092286301997]
本稿では,ビデオ再スケーリングのための自己条件付き確率的フレームワークを提案し,ペアダウンスケーリングとアップスケーリングの手順を同時に学習する。
我々は、その条件付き確率を強い時空間事前情報に基づいて最大化することにより、ダウンスケーリングで失われた情報のエントロピーを減少させる。
我々は、このフレームワークを、非微分産業損失コーデックの勾配推定器として提案する、損失のあるビデオ圧縮システムに拡張する。
論文 参考訳(メタデータ) (2021-07-24T15:57:15Z) - Boosting the Performance of Video Compression Artifact Reduction with
Reference Frame Proposals and Frequency Domain Information [31.053879834073502]
本稿では,既存のマルチフレーム手法の性能向上のための効果的な参照フレーム提案手法を提案する。
実験結果から,MFQE 2.0データセットの忠実度と知覚性能は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-31T13:46:11Z) - COMISR: Compression-Informed Video Super-Resolution [76.94152284740858]
ウェブやモバイルデバイスのほとんどのビデオは圧縮され、帯域幅が制限されると圧縮は厳しい。
圧縮によるアーティファクトを導入せずに高解像度コンテンツを復元する圧縮インフォームドビデオ超解像モデルを提案する。
論文 参考訳(メタデータ) (2021-05-04T01:24:44Z) - Multi-level Wavelet-based Generative Adversarial Network for Perceptual
Quality Enhancement of Compressed Video [51.631731922593225]
既存の手法は主に、その知覚的品質を無視しながら、圧縮映像の客観的品質を高めることに焦点を当てている。
圧縮ビデオの知覚品質を高めるために,マルチレベルウェーブレットパケット変換(WPT)に基づくGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2020-08-02T15:01:38Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。