論文の概要: ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction
- arxiv url: http://arxiv.org/abs/2010.13715v2
- Date: Mon, 27 Sep 2021 03:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 20:15:29.452222
- Title: ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction
- Title(参考訳): ST-GREED:フレームレート依存ビデオ品質予測のための時空間一般化エントロピー差
- Authors: Pavan C. Madhusudana, Neil Birkbeck, Yilin Wang, Balu Adsumilli and
Alan C. Bovik
- Abstract要約: 本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 63.749184706461826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of conducting frame rate dependent video quality
assessment (VQA) on videos of diverse frame rates, including high frame rate
(HFR) videos. More generally, we study how perceptual quality is affected by
frame rate, and how frame rate and compression combine to affect perceived
quality. We devise an objective VQA model called Space-Time GeneRalized
Entropic Difference (GREED) which analyzes the statistics of spatial and
temporal band-pass video coefficients. A generalized Gaussian distribution
(GGD) is used to model band-pass responses, while entropy variations between
reference and distorted videos under the GGD model are used to capture video
quality variations arising from frame rate changes. The entropic differences
are calculated across multiple temporal and spatial subbands, and merged using
a learned regressor. We show through extensive experiments that GREED achieves
state-of-the-art performance on the LIVE-YT-HFR Database when compared with
existing VQA models. The features used in GREED are highly generalizable and
obtain competitive performance even on standard, non-HFR VQA databases. The
implementation of GREED has been made available online:
https://github.com/pavancm/GREED
- Abstract(参考訳): 高フレームレート(hfr)ビデオを含む多様なフレームレートの映像に対して、フレームレート依存性ビデオ品質評価(vqa)を行うことの問題を考える。
より一般的には、知覚品質がフレームレートにどのように影響するか、フレームレートと圧縮が知覚品質にどのように影響するかを検討する。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
一般化ガウス分布(ggd)は帯域通過応答のモデル化に用いられ、ggdモデルの下での参照と歪みビデオ間のエントロピー変動はフレームレートの変化から生じる映像品質の変動を捉えるために用いられる。
エントロピー差は、複数の時間的および空間的なサブバンドで計算され、学習された回帰器を用いてマージされる。
我々は,既存のVQAモデルと比較して,LIVE-YT-HFRデータベース上でGREEDが最先端の性能を達成できることを示す。
GREEDで使用される機能は高度に一般化可能であり、標準の非HFR VQAデータベースでも競合性能が得られる。
GREEDの実装は、https://github.com/pavancm/GREED.comで公開されている。
関連論文リスト
- DisCoVQA: Temporal Distortion-Content Transformers for Video Quality
Assessment [56.42140467085586]
いくつかの時間的変動は時間的歪みを引き起こし、余分な品質劣化を引き起こす。
人間の視覚システムは、しばしば異なる内容のフレームに対して異なる注意を向ける。
本稿では, この2つの問題に対処するための, トランスフォーマーを用いたVQA手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T15:31:27Z) - Making Video Quality Assessment Models Sensitive to Frame Rate
Distortions [63.749184706461826]
映像品質評価(VQA)の一環として,フレームレートの変化に伴う歪みを捉えることの問題点を考察する。
本稿では,GREEDの時間的特徴を既存のVQAモデルと組み合わせた単純な融合フレームワークを提案する。
この結果から,効率的な時間表現を用いることで,より堅牢で正確なVQAモデルが得られることが示唆された。
論文 参考訳(メタデータ) (2022-05-21T04:13:57Z) - FAVER: Blind Quality Prediction of Variable Frame Rate Videos [47.951054608064126]
ビデオ品質アセスメント(VQA)は、最も大規模な多くのアプリケーションに影響を与える重要かつ困難な問題であり続けている。
我々は、フレームレート対応ビデオ評価器w/o参照(FAVER)をダブした、HFRビデオの評価のための第一種ブラインドVQAモデルを提案する。
いくつかのHFRビデオ品質データセットに対する実験により、FAVERは他の盲点VQAアルゴリズムよりも妥当な計算コストで優れていることが示された。
論文 参考訳(メタデータ) (2022-01-05T07:54:12Z) - High Frame Rate Video Quality Assessment using VMAF and Entropic
Differences [50.265638572116984]
ライブでハイアクションなコンテンツによるストリーミングビデオの人気は、ハイフレームレート(HFR)ビデオへの関心を高めている。
本稿では,比較対象の動画がフレームレートと圧縮係数が異なる場合に,フレームレートに依存するビデオ品質評価(VQA)の問題に対処する。
提案する融合フレームワークは,フレームレートに依存した映像品質を予測するために,より効率的な特徴をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-27T04:08:12Z) - Capturing Video Frame Rate Variations via Entropic Differencing [63.749184706461826]
一般化ガウス分布モデルに基づく新しい統計エントロピー差分法を提案する。
提案手法は,最近提案されたLIVE-YT-HFRデータベースにおいて,主観的スコアと非常によく相関する。
論文 参考訳(メタデータ) (2020-06-19T22:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。