論文の概要: FOVQA: Blind Foveated Video Quality Assessment
- arxiv url: http://arxiv.org/abs/2106.13328v1
- Date: Thu, 24 Jun 2021 21:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 12:58:48.598428
- Title: FOVQA: Blind Foveated Video Quality Assessment
- Title(参考訳): fovqa: 盲目のfoveated video quality assessment
- Authors: Yize Jin, Anjul Patney, Richard Webb, Alan Bovik
- Abstract要約: FOVQAと呼ばれるビデオ品質評価モデルを開発した。
空間変動自然シーン統計(NSS)と自然映像統計(NVS)の新しいモデルに基づく。
FOVQAは2D LIVE-FBT-FCVRデータベース上での最先端(SOTA)性能を実現する。
- 参考スコア(独自算出の注目度): 1.4127304025810108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous blind or No Reference (NR) video quality assessment (VQA) models
largely rely on features drawn from natural scene statistics (NSS), but under
the assumption that the image statistics are stationary in the spatial domain.
Several of these models are quite successful on standard pictures. However, in
Virtual Reality (VR) applications, foveated video compression is regaining
attention, and the concept of space-variant quality assessment is of interest,
given the availability of increasingly high spatial and temporal resolution
contents and practical ways of measuring gaze direction. Distortions from
foveated video compression increase with increased eccentricity, implying that
the natural scene statistics are space-variant. Towards advancing the
development of foveated compression / streaming algorithms, we have devised a
no-reference (NR) foveated video quality assessment model, called FOVQA, which
is based on new models of space-variant natural scene statistics (NSS) and
natural video statistics (NVS). Specifically, we deploy a space-variant
generalized Gaussian distribution (SV-GGD) model and a space-variant
asynchronous generalized Gaussian distribution (SV-AGGD) model of mean
subtracted contrast normalized (MSCN) coefficients and products of neighboring
MSCN coefficients, respectively. We devise a foveated video quality predictor
that extracts radial basis features, and other features that capture
perceptually annoying rapid quality fall-offs. We find that FOVQA achieves
state-of-the-art (SOTA) performance on the new 2D LIVE-FBT-FCVR database, as
compared with other leading FIQA / VQA models. we have made our implementation
of FOVQA available at: http://live.ece.utexas.edu/research/Quality/FOVQA.zip.
- Abstract(参考訳): 従来のブラインド・ノレファレンス(NR)ビデオ品質評価(VQA)モデルは、自然シーン統計(NSS)から引き出された特徴に大きく依存しているが、画像統計が空間領域に静止しているという仮定の下では、ほとんど依存している。
これらのモデルのいくつかは標準的な写真でかなり成功している。
しかし、仮想現実(vr)アプリケーションでは、空間的・時間的解像度コンテンツの高まりと視線方向の実用的な測定方法を考えると、焦点付き映像圧縮が注目され、空間的品質評価の概念が注目されている。
ビデオ圧縮の歪みは偏心性の増加とともに増大し、自然界の統計が空間変動であることを示唆している。
本研究では,空間変動自然景観統計(nss)と自然映像統計(nvs)の新たなモデルに基づく,no-reference (nr) foveated video quality assessment model (fovqa) を考案した。
具体的には,空間変動型一般化ガウス分布(SV-GGD)モデルと空間変動型非同期ガウス分布(SV-AGGD)モデルを,平均減算コントラスト正規化(MSCN)係数および隣接するMSCN係数の積として展開する。
我々は,視線に基づく特徴や,知覚的に煩わしい急激な品質低下を捉える特徴を抽出する映像品質予測器を考案した。
FOVQAは,他の主要なFIQA/VQAモデルと比較して,新しい2D LIVE-FBT-FCVRデータベース上での最先端(SOTA)性能を実現する。
我々は FOVQA の実装を http://live.ece.utexas.edu/research/Quality/FOVQA.zip で公開した。
関連論文リスト
- Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - A Deep Learning based No-reference Quality Assessment Model for UGC
Videos [44.00578772367465]
従来のビデオ品質評価(VQA)研究では、画像認識モデルまたは画像品質評価(IQA)モデルを使用して、品質回帰のためのビデオのフレームレベルの特徴を抽出している。
ビデオフレームの生画素から高品質な空間特徴表現を学習するために,エンドツーエンドの空間特徴抽出ネットワークを訓練する,非常に単純で効果的なVQAモデルを提案する。
より優れた品質認識機能により、単純な多層認識層(MLP)ネットワークのみを用いてチャンクレベルの品質スコアに回帰し、時間平均プーリング戦略を採用してビデオを得る。
論文 参考訳(メタデータ) (2022-04-29T12:45:21Z) - FAVER: Blind Quality Prediction of Variable Frame Rate Videos [47.951054608064126]
ビデオ品質アセスメント(VQA)は、最も大規模な多くのアプリケーションに影響を与える重要かつ困難な問題であり続けている。
我々は、フレームレート対応ビデオ評価器w/o参照(FAVER)をダブした、HFRビデオの評価のための第一種ブラインドVQAモデルを提案する。
いくつかのHFRビデオ品質データセットに対する実験により、FAVERは他の盲点VQAアルゴリズムよりも妥当な計算コストで優れていることが示された。
論文 参考訳(メタデータ) (2022-01-05T07:54:12Z) - Evaluating Foveated Video Quality Using Entropic Differencing [1.5877673959068452]
本稿では,帯域通過応答の自然なシーン統計を用いた画像品質評価アルゴリズムを提案する。
提案アルゴリズムは,FEDが人的判断に対して行う予測の相関性を測定して評価する。
提案アルゴリズムの性能は,既存の全参照アルゴリズムと比較して最先端である。
論文 参考訳(メタデータ) (2021-06-12T16:29:13Z) - Study on the Assessment of the Quality of Experience of Streaming Video [117.44028458220427]
本稿では,ストリーミング映像のQoEの主観的推定に対する様々な客観的要因の影響について検討する。
本論文では標準的および手作り的特徴を示し,その相関とp値を示す。
SQoE-IIIデータベースは、これまでで最大の、そして最も現実的なデータベースだ。
論文 参考訳(メタデータ) (2020-12-08T18:46:09Z) - ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction [63.749184706461826]
本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-26T16:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。