論文の概要: PeQuENet: Perceptual Quality Enhancement of Compressed Video with
Adaptation- and Attention-based Network
- arxiv url: http://arxiv.org/abs/2206.07893v1
- Date: Thu, 16 Jun 2022 02:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 16:59:37.789781
- Title: PeQuENet: Perceptual Quality Enhancement of Compressed Video with
Adaptation- and Attention-based Network
- Title(参考訳): PeQuENet:適応型・注意型ネットワークによる圧縮映像の知覚品質向上
- Authors: Saiping Zhang, Luis Herranz, Marta Mrak, Marc Gorriz Blanch, Shuai
Wan, Fuzheng Yang
- Abstract要約: 本稿では,圧縮ビデオの知覚品質を高めるために,GAN(Generative Adversarial Network)フレームワークを提案する。
我々のフレームワークは、単一のモデルにおける異なる量子化パラメータ(QP)への注意と適応を含む。
実験により,提案したPeQuENetの圧縮圧縮画質向上アルゴリズムと比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 27.375830262287163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a generative adversarial network (GAN) framework to
enhance the perceptual quality of compressed videos. Our framework includes
attention and adaptation to different quantization parameters (QPs) in a single
model. The attention module exploits global receptive fields that can capture
and align long-range correlations between consecutive frames, which can be
beneficial for enhancing perceptual quality of videos. The frame to be enhanced
is fed into the deep network together with its neighboring frames, and in the
first stage features at different depths are extracted. Then extracted features
are fed into attention blocks to explore global temporal correlations, followed
by a series of upsampling and convolution layers. Finally, the resulting
features are processed by the QP-conditional adaptation module which leverages
the corresponding QP information. In this way, a single model can be used to
enhance adaptively to various QPs without requiring multiple models specific
for every QP value, while having similar performance. Experimental results
demonstrate the superior performance of the proposed PeQuENet compared with the
state-of-the-art compressed video quality enhancement algorithms.
- Abstract(参考訳): 本稿では,圧縮映像の知覚的品質を高めるためのgan(generative adversarial network)フレームワークを提案する。
本フレームワークは,単一モデルにおける異なる量子化パラメータ (qps) に対する注意と適応を含む。
このアテンションモジュールは、連続するフレーム間の長距離相関をキャプチャして調整できるグローバルレセプションフィールドを活用し、ビデオの知覚品質を向上させるのに有用である。
強化されるフレームは、隣接するフレームとともにディープネットワークに供給され、第1段階では、異なる深さの特徴を抽出する。
抽出した特徴をアテンションブロックに入力し、グローバルな時間的相関を探索し、その後一連のアップサンプリングと畳み込み層が続く。
最後に、得られた特徴を対応するQP情報を利用するQP条件適応モジュールで処理する。
このようにして、複数のQP値に固有の複数のモデルを必要とせず、同様の性能を持つ単一のモデルを様々なQPに適応的に拡張することができる。
実験により,提案したPeQuENetの圧縮画質向上アルゴリズムと比較して優れた性能を示した。
関連論文リスト
- End-to-End Video Question Answering with Frame Scoring Mechanisms and Adaptive Sampling [43.024232182899354]
そこで我々は,VidF4を提案する。VidF4は,ビデオQAを効果的かつ効率的に選択するためのフレーム選択戦略を備えた,新しいビデオQAフレームワークである。
本稿では,ビデオ上での質問に対する各フレームの重要性を評価するために,質問関連性とフレーム間類似性の両方を考慮した3つのフレーム照合機構を提案する。
広く採用されている3つのベンチマークによる実験結果から,我々のモデルは既存のビデオQA手法より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2024-07-21T04:09:37Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - FloLPIPS: A Bespoke Video Quality Metric for Frame Interpoation [4.151439675744056]
本稿では,VFIのためのフルレファレンスビデオ品質基準であるFloLPIPSについて述べる。
FloLPIPSは、12のポピュラーな品質評価器よりも主観的根拠真理との相関性能が優れている。
論文 参考訳(メタデータ) (2022-07-17T09:07:33Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - DisCoVQA: Temporal Distortion-Content Transformers for Video Quality
Assessment [56.42140467085586]
いくつかの時間的変動は時間的歪みを引き起こし、余分な品質劣化を引き起こす。
人間の視覚システムは、しばしば異なる内容のフレームに対して異なる注意を向ける。
本稿では, この2つの問題に対処するための, トランスフォーマーを用いたVQA手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T15:31:27Z) - A Deep Learning based No-reference Quality Assessment Model for UGC
Videos [44.00578772367465]
従来のビデオ品質評価(VQA)研究では、画像認識モデルまたは画像品質評価(IQA)モデルを使用して、品質回帰のためのビデオのフレームレベルの特徴を抽出している。
ビデオフレームの生画素から高品質な空間特徴表現を学習するために,エンドツーエンドの空間特徴抽出ネットワークを訓練する,非常に単純で効果的なVQAモデルを提案する。
より優れた品質認識機能により、単純な多層認識層(MLP)ネットワークのみを用いてチャンクレベルの品質スコアに回帰し、時間平均プーリング戦略を採用してビデオを得る。
論文 参考訳(メタデータ) (2022-04-29T12:45:21Z) - DCNGAN: A Deformable Convolutional-Based GAN with QP Adaptation for
Perceptual Quality Enhancement of Compressed Video [27.375830262287163]
圧縮ビデオの知覚的品質向上を目的とした,変形可能な畳み込み型生成対向ネットワーク(DCNGAN)を提案する。
実験結果から,提案したDCNGANは,他の圧縮圧縮映像品質向上アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-01-22T02:09:50Z) - High Frame Rate Video Quality Assessment using VMAF and Entropic
Differences [50.265638572116984]
ライブでハイアクションなコンテンツによるストリーミングビデオの人気は、ハイフレームレート(HFR)ビデオへの関心を高めている。
本稿では,比較対象の動画がフレームレートと圧縮係数が異なる場合に,フレームレートに依存するビデオ品質評価(VQA)の問題に対処する。
提案する融合フレームワークは,フレームレートに依存した映像品質を予測するために,より効率的な特徴をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-27T04:08:12Z) - Capturing Video Frame Rate Variations via Entropic Differencing [63.749184706461826]
一般化ガウス分布モデルに基づく新しい統計エントロピー差分法を提案する。
提案手法は,最近提案されたLIVE-YT-HFRデータベースにおいて,主観的スコアと非常によく相関する。
論文 参考訳(メタデータ) (2020-06-19T22:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。