論文の概要: Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment
- arxiv url: http://arxiv.org/abs/2207.03723v1
- Date: Fri, 8 Jul 2022 07:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 08:13:25.526211
- Title: Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment
- Title(参考訳): ブラインド映像品質評価における映像知覚表現の有効性の検討
- Authors: Liang Liao, Kangmin Xu, Haoning Wu, Chaofeng Chen, Wenxiu Sun, Qiong
Yan, Weisi Lin
- Abstract要約: 表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
- 参考スコア(独自算出の注目度): 55.65173181828863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid growth of in-the-wild videos taken by non-specialists, blind
video quality assessment (VQA) has become a challenging and demanding problem.
Although lots of efforts have been made to solve this problem, it remains
unclear how the human visual system (HVS) relates to the temporal quality of
videos. Meanwhile, recent work has found that the frames of natural video
transformed into the perceptual domain of the HVS tend to form a straight
trajectory of the representations. With the obtained insight that distortion
impairs the perceived video quality and results in a curved trajectory of the
perceptual representation, we propose a temporal perceptual quality index
(TPQI) to measure the temporal distortion by describing the graphic morphology
of the representation. Specifically, we first extract the video perceptual
representations from the lateral geniculate nucleus (LGN) and primary visual
area (V1) of the HVS, and then measure the straightness and compactness of
their trajectories to quantify the degradation in naturalness and content
continuity of video. Experiments show that the perceptual representation in the
HVS is an effective way of predicting subjective temporal quality, and thus
TPQI can, for the first time, achieve comparable performance to the spatial
quality metric and be even more effective in assessing videos with large
temporal variations. We further demonstrate that by combining with NIQE, a
spatial quality metric, TPQI can achieve top performance over popular
in-the-wild video datasets. More importantly, TPQI does not require any
additional information beyond the video being evaluated and thus can be applied
to any datasets without parameter tuning. Source code is available at
https://github.com/UoLMM/TPQI-VQA.
- Abstract(参考訳): 非専門家が撮影する動画の急速な増加に伴い、視覚的ビデオ品質評価(VQA)は困難で要求の多い問題となっている。
この問題を解決するために多くの努力がなされてきたが、人間の視覚システム(HVS)がビデオの時間的品質にどう関係しているかは不明だ。
一方、最近の研究では、自然映像のフレームがhvsの知覚領域に変換され、表現の直線軌道を形成する傾向があることが判明している。
映像品質の知覚を阻害し,知覚表現の曲がった軌跡を生じさせるような知見を得たので,表現の図形形態を記述して時間的歪みを測定する時間知覚品質指標(tpqi)を提案する。
具体的には、まず、HVSの外側原性核(LGN)と一次視覚領域(V1)から映像知覚表現を抽出し、その軌跡の直線性とコンパクト性を測定し、映像の自然性および内容連続性の劣化を定量化する。
実験により、hvsにおける知覚表現は主観的時間的品質を予測する効果的な方法であることが示され、tpqiは初めて空間的品質指標と同等の性能を達成でき、時間的変化が大きいビデオの評価にさらに効果的である。
さらに,空間品質の指標であるNIQEと組み合わせることで,TPQIは,人気ビデオデータセットよりも高い性能が得られることを示す。
さらに重要なことは、TPQIはビデオ以外の追加情報を必要としないため、パラメータチューニングなしで任意のデータセットに適用することができる。
ソースコードはhttps://github.com/UoLMM/TPQI-VQAで入手できる。
関連論文リスト
- CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - On the Content Bias in Fréchet Video Distance [42.717821654744796]
Fr'echet Video Distance (FVD)は、ビデオ生成モデルを評価するための重要な指標である。
本稿では,時間的リアリズムよりもフレーム単位の品質に対するFVDの偏りについて検討する。
近年の大規模自己監督型ビデオモデルから抽出された特徴を持つFVDは画質に偏りが小さいことを示す。
論文 参考訳(メタデータ) (2024-04-18T17:59:58Z) - Capturing Co-existing Distortions in User-Generated Content for
No-reference Video Quality Assessment [9.883856205077022]
ビデオ品質アセスメント(VQA)は、ビデオの知覚品質を予測することを目的としている。
VQAはユーザ生成コンテンツ(UGC)ビデオで未解決の2つの過小評価課題に直面している。
品質関連スパース特徴をより効率的に抽出するためのtextitVisual Quality Transformer (VQT) を提案する。
論文 参考訳(メタデータ) (2023-07-31T16:29:29Z) - Evaluating Point Cloud from Moving Camera Videos: A No-Reference Metric [58.309735075960745]
本稿では,ビデオ品質評価(VQA)手法を用いて,ポイントクラウド品質評価(PCQA)タスクの処理方法について検討する。
捉えたビデオは、いくつかの円形の経路を通して、点雲の周りでカメラを回転させて生成する。
トレーニング可能な2D-CNNモデルと事前学習された3D-CNNモデルを用いて、選択したキーフレームとビデオクリップから空間的・時間的品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2022-08-30T08:59:41Z) - DisCoVQA: Temporal Distortion-Content Transformers for Video Quality
Assessment [56.42140467085586]
いくつかの時間的変動は時間的歪みを引き起こし、余分な品質劣化を引き起こす。
人間の視覚システムは、しばしば異なる内容のフレームに対して異なる注意を向ける。
本稿では, この2つの問題に対処するための, トランスフォーマーを用いたVQA手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T15:31:27Z) - Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video [66.57045901742922]
360度ビデオにおけるブラインド視覚品質評価(BVQA)は,没入型マルチメディアシステムの最適化において重要な役割を担っている。
本稿では,球面映像品質に対する人間の知覚の進歩的パラダイムを考察する。
画素,フレーム,ビデオから段階的に学習することで,360度ビデオのための新しいBVQA手法(ProVQA)を提案する。
論文 参考訳(メタデータ) (2021-11-18T03:45:13Z) - FOVQA: Blind Foveated Video Quality Assessment [1.4127304025810108]
FOVQAと呼ばれるビデオ品質評価モデルを開発した。
空間変動自然シーン統計(NSS)と自然映像統計(NVS)の新しいモデルに基づく。
FOVQAは2D LIVE-FBT-FCVRデータベース上での最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T21:38:22Z) - ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction [63.749184706461826]
本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-26T16:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。