論文の概要: Learned Scanpaths Aid Blind Panoramic Video Quality Assessment
- arxiv url: http://arxiv.org/abs/2404.00252v1
- Date: Sat, 30 Mar 2024 05:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 04:40:03.718930
- Title: Learned Scanpaths Aid Blind Panoramic Video Quality Assessment
- Title(参考訳): ブラインドパノラマビデオ品質評価を支援する学習されたスキャンパス
- Authors: Kanglong Fan, Wen Wen, Mu Li, Yifan Peng, Kede Ma,
- Abstract要約: 本稿では,視覚的スキャンパスによるユーザ・ビューング・パターンの明示的なモデリングを用いた,エンドツーエンドで最適化された視覚的パノラマ映像品質評価手法を提案する。
視覚的PVQA法は,パノラマ画像を同一フレームからなるビデオとして扱うことにより,直接品質評価を可能にする。
- 参考スコア(独自算出の注目度): 34.191830786301956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoramic videos have the advantage of providing an immersive and interactive viewing experience. Nevertheless, their spherical nature gives rise to various and uncertain user viewing behaviors, which poses significant challenges for panoramic video quality assessment (PVQA). In this work, we propose an end-to-end optimized, blind PVQA method with explicit modeling of user viewing patterns through visual scanpaths. Our method consists of two modules: a scanpath generator and a quality assessor. The scanpath generator is initially trained to predict future scanpaths by minimizing their expected code length and then jointly optimized with the quality assessor for quality prediction. Our blind PVQA method enables direct quality assessment of panoramic images by treating them as videos composed of identical frames. Experiments on three public panoramic image and video quality datasets, encompassing both synthetic and authentic distortions, validate the superiority of our blind PVQA model over existing methods.
- Abstract(参考訳): パノラマビデオは没入的でインタラクティブな視聴体験を提供するという利点がある。
それにもかかわらず、その球面的な性質は様々な不確実なユーザーの視聴行動を引き起こし、パノラマビデオ品質評価(PVQA)に重大な課題をもたらす。
本研究では,視覚スキャンパスを用いたユーザ・ビューング・パターンの明示的モデリングにより,エンドツーエンドで最適化された視覚的PVQA手法を提案する。
本手法は,スキャンパス生成器と品質評価器の2つのモジュールから構成される。
スキャンパスジェネレータは、期待するコード長を最小化し、品質予測のために品質評価器と共同最適化することで、将来のスキャンパスを予測するように訓練されている。
視覚的PVQA法は,パノラマ画像を同一フレームからなるビデオとして扱うことにより,直接品質評価を可能にする。
3つの公開パノラマ画像とビデオ品質データセットの実験は、合成歪みと真正歪みの両方を包含し、既存の手法よりも視覚型PVQAモデルの方が優れていることを検証した。
関連論文リスト
- Saliency-Aware Spatio-Temporal Artifact Detection for Compressed Video
Quality Assessment [16.49357671290058]
圧縮されたビデオは、しばしば知覚可能なテンポラルアーティファクト(PEAs)として知られる視覚的に厄介なアーティファクトを示す。
本稿では,4つの空間的PEA(ブラーリング,ブロッキング,出血,リング)と2つの時間的PEA(フリックリング,フローティング)が映像品質に与える影響について検討する。
6種類のPEAに基づいて,SSTAM(Saliency-Aware Spatio-Temporal Artifacts Measurement)と呼ばれる品質指標を提案する。
論文 参考訳(メタデータ) (2023-01-03T12:48:27Z) - Evaluating Point Cloud from Moving Camera Videos: A No-Reference Metric [58.309735075960745]
本稿では,ビデオ品質評価(VQA)手法を用いて,ポイントクラウド品質評価(PCQA)タスクの処理方法について検討する。
捉えたビデオは、いくつかの円形の経路を通して、点雲の周りでカメラを回転させて生成する。
トレーニング可能な2D-CNNモデルと事前学習された3D-CNNモデルを用いて、選択したキーフレームとビデオクリップから空間的・時間的品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2022-08-30T08:59:41Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - Perceptual Quality Assessment of Virtual Reality Videos in the Wild [53.94620993606658]
既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
論文 参考訳(メタデータ) (2022-06-13T02:22:57Z) - Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video [66.57045901742922]
360度ビデオにおけるブラインド視覚品質評価(BVQA)は,没入型マルチメディアシステムの最適化において重要な役割を担っている。
本稿では,球面映像品質に対する人間の知覚の進歩的パラダイムを考察する。
画素,フレーム,ビデオから段階的に学習することで,360度ビデオのための新しいBVQA手法(ProVQA)を提案する。
論文 参考訳(メタデータ) (2021-11-18T03:45:13Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z) - Understanding the Perceived Quality of Video Predictions [10.533348468499824]
インド科学予測ビデオ品質評価(IISc PVQA)データベースを300本作成する。
これらのビデオの被験者50名から主観的品質評価を収集し、ビデオ予測を評価するために広く利用されているいくつかの指標をベンチマークした。
予測ビデオの品質を効果的に把握するための2つの新機能、過去のフレームとの予測フレームの深い特徴の運動補償コサイン類似性、および再スケールされたフレーム差から抽出された深い特徴を紹介する。
論文 参考訳(メタデータ) (2020-05-01T13:05:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。