論文の概要: Deep Learning based Full-reference and No-reference Quality Assessment
Models for Compressed UGC Videos
- arxiv url: http://arxiv.org/abs/2106.01111v1
- Date: Wed, 2 Jun 2021 12:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:20:27.097201
- Title: Deep Learning based Full-reference and No-reference Quality Assessment
Models for Compressed UGC Videos
- Title(参考訳): 深層学習に基づく圧縮UGCビデオの完全参照と非参照品質評価モデル
- Authors: Wei Sun and Tao Wang and Xiongkuo Min and Fuwang Yi and Guangtao Zhai
- Abstract要約: フレームワークは、機能抽出モジュール、品質回帰モジュール、品質プーリングモジュールの3つのモジュールで構成されている。
特徴抽出モジュールでは、畳み込みニューラルネットワーク(CNN)ネットワークの中間層から特徴を最終品質認識表現に融合する。
品質回帰モジュールでは、完全連結(FC)層を用いて品質認識機能をフレームレベルスコアに回帰する。
- 参考スコア(独自算出の注目度): 34.761412637585266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a deep learning based video quality assessment
(VQA) framework to evaluate the quality of the compressed user's generated
content (UGC) videos. The proposed VQA framework consists of three modules, the
feature extraction module, the quality regression module, and the quality
pooling module. For the feature extraction module, we fuse the features from
intermediate layers of the convolutional neural network (CNN) network into
final quality-aware feature representation, which enables the model to make
full use of visual information from low-level to high-level. Specifically, the
structure and texture similarities of feature maps extracted from all
intermediate layers are calculated as the feature representation for the full
reference (FR) VQA model, and the global mean and standard deviation of the
final feature maps fused by intermediate feature maps are calculated as the
feature representation for the no reference (NR) VQA model. For the quality
regression module, we use the fully connected (FC) layer to regress the
quality-aware features into frame-level scores. Finally, a
subjectively-inspired temporal pooling strategy is adopted to pool frame-level
scores into the video-level score. The proposed model achieves the best
performance among the state-of-the-art FR and NR VQA models on the Compressed
UGC VQA database and also achieves pretty good performance on the in-the-wild
UGC VQA databases.
- Abstract(参考訳): 本稿では,圧縮されたユーザ生成コンテンツ(UGC)ビデオの品質を評価するための,ディープラーニングに基づくビデオ品質評価(VQA)フレームワークを提案する。
提案するVQAフレームワークは,機能抽出モジュール,品質回帰モジュール,品質プールモジュールの3つのモジュールで構成されている。
特徴抽出モジュールでは,畳み込みニューラルネットワーク(cnn)ネットワークの中間層から最終品質認識機能表現に機能を融合することで,低レベルから高レベルまでの視覚情報をフルに活用することができる。
具体的には、全中間層から抽出された特徴マップの構造とテクスチャの類似性を全参照(fr)vqaモデルの特徴表現として算出し、中間特徴マップによって融合された最終特徴マップのグローバル平均および標準偏差をno参照(nr)vqaモデルの特徴表現として算出する。
品質回帰モジュールでは,完全接続(fc)層を用いて品質認識機能をフレームレベルのスコアに回帰する。
最後に、ビデオレベルスコアにフレームレベルスコアをプールするために、主観的にインスパイアされた時間プーリング戦略を採用する。
提案モデルは,圧縮されたUGC VQAデータベース上での最先端FRモデルとNR VQAモデルの中で最高の性能を達成し,また,現在開発中のUGC VQAデータベース上ではかなり優れた性能を達成する。
関連論文リスト
- ReLaX-VQA: Residual Fragment and Layer Stack Extraction for Enhancing Video Quality Assessment [35.00766551093652]
本稿では, NR-VQA(No-Reference Video Quality Assessment)モデルであるReLaX-VQAを提案する。
ReLaX-VQAは、残留フレームと光学フローの断片と、サンプルフレームの空間的特徴の異なる表現を用いて、動きと空間的知覚を高める。
我々は、NR-VQAのさらなる研究と応用を促進するために、コードをオープンソース化し、訓練されたモデルを公開します。
論文 参考訳(メタデータ) (2024-07-16T08:33:55Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - Neighbourhood Representative Sampling for Efficient End-to-end Video
Quality Assessment [60.57703721744873]
リアルタイムビデオの高解像度化は、VQA(Deep Video Quality Assessment)の効率性と精度のジレンマを示す
そこで本研究では,空間時空間格子型ミニキューブサンプリング(St-GMS)を統一的に提案し,新しいタイプのフラグメントを抽出する。
フラグメントとFANetにより、提案された効率的なエンドツーエンドのFAST-VQAとFasterVQAは、既存のVQAベンチマークよりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2022-10-11T11:38:07Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - A Deep Learning based No-reference Quality Assessment Model for UGC
Videos [44.00578772367465]
従来のビデオ品質評価(VQA)研究では、画像認識モデルまたは画像品質評価(IQA)モデルを使用して、品質回帰のためのビデオのフレームレベルの特徴を抽出している。
ビデオフレームの生画素から高品質な空間特徴表現を学習するために,エンドツーエンドの空間特徴抽出ネットワークを訓練する,非常に単純で効果的なVQAモデルを提案する。
より優れた品質認識機能により、単純な多層認識層(MLP)ネットワークのみを用いてチャンクレベルの品質スコアに回帰し、時間平均プーリング戦略を採用してビデオを得る。
論文 参考訳(メタデータ) (2022-04-29T12:45:21Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。