論文の概要: Deep Quality Assessment of Compressed Videos: A Subjective and Objective
Study
- arxiv url: http://arxiv.org/abs/2205.03630v1
- Date: Sat, 7 May 2022 10:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:10:55.583299
- Title: Deep Quality Assessment of Compressed Videos: A Subjective and Objective
Study
- Title(参考訳): 圧縮映像の深い品質評価 : 主観的・客観的研究
- Authors: Liqun Lin, Zheng Wang, Jiachen He, Weiling Chen, Yiwen Xu and Tiesong
Zhao
- Abstract要約: ビデオ符号化プロセスでは、圧縮ビデオの知覚品質を、フル参照品質評価指標により評価する。
この問題を解決するために,非参照圧縮映像品質評価アルゴリズムの設計が重要である。
本研究では,大規模圧縮映像品質データベースを構築するために,半自動ラベリング方式を採用する。
- 参考スコア(独自算出の注目度): 23.3509109592315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the video coding process, the perceived quality of a compressed video is
evaluated by full-reference quality evaluation metrics. However, it is
difficult to obtain reference videos with perfect quality. To solve this
problem, it is critical to design no-reference compressed video quality
assessment algorithms, which assists in measuring the quality of experience on
the server side and resource allocation on the network side. Convolutional
Neural Network (CNN) has shown its advantage in Video Quality Assessment (VQA)
with promising successes in recent years. A large-scale quality database is
very important for learning accurate and powerful compressed video quality
metrics. In this work, a semi-automatic labeling method is adopted to build a
large-scale compressed video quality database, which allows us to label a large
number of compressed videos with manageable human workload. The resulting
Compressed Video quality database with Semi-Automatic Ratings (CVSAR), so far
the largest of compressed video quality database. We train a no-reference
compressed video quality assessment model with a 3D CNN for SpatioTemporal
Feature Extraction and Evaluation (STFEE). Experimental results demonstrate
that the proposed method outperforms state-of-the-art metrics and achieves
promising generalization performance in cross-database tests. The CVSAR
database and STFEE model will be made publicly available to facilitate
reproducible research.
- Abstract(参考訳): 映像符号化過程において、圧縮映像の知覚品質をフルリファレンス品質評価指標を用いて評価する。
しかし,完全品質の参照映像を得ることは困難である。
この問題を解決するためには,サーバ側での経験品質とネットワーク側でのリソース割り当てを測定するのに役立つ非参照圧縮映像品質評価アルゴリズムを設計することが重要である。
畳み込みニューラルネットワーク(CNN)は近年,ビデオ品質アセスメント(VQA)において,有望な成功を収めている。
大規模品質データベースは、正確で強力な圧縮ビデオ品質メトリクスを学ぶ上で非常に重要である。
本研究では,大規模な圧縮映像品質データベースを構築するための半自動ラベリング手法を用いて,大量の圧縮映像に人的作業負荷を伴ってラベル付けを行う。
その結果、半自動レーティング(CVSAR)による圧縮ビデオ品質データベースが、これまでで最大の圧縮ビデオ品質データベースとなった。
我々は,空間的特徴抽出・評価(stfee)のための3次元cnnを用いた非参照圧縮映像品質評価モデルを訓練する。
実験結果から,提案手法は最先端のメトリクスよりも優れ,データベース間テストにおいて有望な一般化性能を実現することが示された。
CVSARデータベースとSTFEEモデルは、再現可能な研究を促進するために公開されている。
関連論文リスト
- Benchmarking AIGC Video Quality Assessment: A Dataset and Unified Model [54.69882562863726]
主観的および客観的品質評価の観点からAIGC-VQA問題を体系的に検討する。
我々は,空間的品質,時間的品質,テキスト・ツー・ビデオアライメントの3次元から,AIGCビデオの知覚品質を評価する。
本稿では,AIGCビデオの品質を包括的かつ正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content [7.283653823423298]
本稿では,映像コンテンツの改良を目的とした新しいブラインド・ディープ・ビデオ品質評価手法を提案する。
新しいリカレントメモリトランス (Recurrent Memory Transformer, RMT) ベースのネットワークアーキテクチャを使用して、ビデオ品質の表現を得る。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
論文 参考訳(メタデータ) (2024-05-14T14:01:15Z) - KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - Perceptual Video Quality Assessment: A Survey [63.61214597655413]
映像品質評価は,映像処理分野において重要な役割を担っている。
過去20年間に様々な主観的・客観的な映像品質評価研究が実施されてきた。
この調査は、これらのビデオ品質アセスメント研究の最新かつ包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T16:13:52Z) - Towards Robust Text-Prompted Semantic Criterion for In-the-Wild Video
Quality Assessment [54.31355080688127]
コントラスト言語画像事前学習(CLIP)を用いたテキストプロンプト付きセマンティック親和性品質指標(SAQI)とそのローカライズ版(SAQI-Local)を導入する。
BVQI-Localは前例のないパフォーマンスを示し、すべてのデータセットで既存のゼロショットインデックスを少なくとも24%上回る。
我々は、異なる指標の異なる品質問題を調べるために包括的な分析を行い、設計の有効性と合理性を示す。
論文 参考訳(メタデータ) (2023-04-28T08:06:05Z) - Perceptual Quality Assessment of Face Video Compression: A Benchmark and
An Effective Method [69.868145936998]
生成的符号化アプローチは、合理的な速度歪曲トレードオフを持つ有望な代替手段として認識されている。
従来のハイブリッドコーディングフレームワークから生成モデルまで、空間的・時間的領域における歪みの多様さは、圧縮顔画像品質評価(VQA)における大きな課題を提示する。
大規模圧縮顔画像品質評価(CFVQA)データベースを導入し,顔ビデオの知覚的品質と多角化圧縮歪みを体系的に理解するための最初の試みである。
論文 参考訳(メタデータ) (2023-04-14T11:26:09Z) - Blindly Assess Quality of In-the-Wild Videos via Quality-aware
Pre-training and Motion Perception [32.87570883484805]
本稿では,画像品質評価(IQA)データベースからの知識の伝達と,リッチな動きパターンを用いた大規模行動認識を提案する。
対象のVQAデータベース上で、混合リストワイドランキング損失関数を用いて、提案したモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-08-19T05:29:19Z) - RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content [44.03188436272383]
RAPIQUE(Rapid and Accurate Video Quality Evaluator)をダブする、コンテンツのための効率的で効率的なビデオ品質モデルを紹介します。
RAPIQUEは、品質認識のシーン統計機能と意味認識の深い畳み込み機能の両方の利点を組み合わせて活用します。
最近の大規模なビデオ品質データベースに関する実験結果から、RAPIQUEはすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できます。
論文 参考訳(メタデータ) (2021-01-26T17:23:46Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。