論文の概要: Perceptual Quality Assessment of Virtual Reality Videos in the Wild
- arxiv url: http://arxiv.org/abs/2206.08751v2
- Date: Mon, 3 Jul 2023 06:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:08:57.217011
- Title: Perceptual Quality Assessment of Virtual Reality Videos in the Wild
- Title(参考訳): 野生におけるバーチャルリアリティ映像の知覚的品質評価
- Authors: Wen Wen, Mu Li, Yiru Yao, Xiangjie Sui, Yabin Zhang, Long Lan, Yuming
Fang, Kede Ma
- Abstract要約: 既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
- 参考スコア(独自算出の注目度): 50.33693148440248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Investigating how people perceive virtual reality videos in the wild (\ie,
those captured by everyday users) is a crucial and challenging task in
VR-related applications due to complex \textit{authentic} distortions localized
in space and time. Existing panoramic video databases only consider synthetic
distortions, assume fixed viewing conditions, and are limited in size. To
overcome these shortcomings, we construct the VR Video Quality in the Wild
(VRVQW) database, which is one of the first of its kind, and contains $502$
user-generated videos with diverse content and distortion characteristics.
Based on VRVQW, we conduct a formal psychophysical experiment to record the
scanpaths and perceived quality scores from $139$ participants under two
different viewing conditions. We provide a thorough statistical analysis of the
recorded data, observing significant impact of viewing conditions on both human
scanpaths and perceived quality. Moreover, we develop an objective quality
assessment model for VR videos based on pseudocylindrical representation and
convolution. Results on the proposed VRVQW show that our method is superior to
existing video quality assessment models, only underperforming viewport-based
models that otherwise rely on human scanpaths for projection. Last, we explore
the additional use of the VRVQW dataset to benchmark saliency detection
techniques, highlighting the need for further research. We have made the
database and code available at
\url{https://github.com/limuhit/VR-Video-Quality-in-the-Wild}.
- Abstract(参考訳): 人々がバーチャルリアリティービデオをどのように知覚するかを調べることは、空間と時間にローカライズされた複雑な \textit{authentic} 歪みのため、vr関連のアプリケーションにおいて重要かつ困難なタスクである。
既存のパノラマビデオデータベースは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズを制限している。
これらの欠点を克服するため、我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
VRVQWに基づいて,2つの異なる視聴条件下で,スキャンパスと品質スコアを139ドルの参加者から記録する,正式な心理物理実験を行った。
記録されたデータの詳細な統計解析を行い、ヒトのスキャンパスと知覚品質の両方に観察条件が与える影響を観察した。
さらに,擬似円筒表現と畳み込みに基づくVRビデオの客観的品質評価モデルを構築した。
提案したVRVQWの結果から,提案手法は既存の映像品質評価モデルよりも優れており,投影のための人間の走査パスに依存しないビューポートベースモデルよりも優れていた。
最後に,VRVQWデータセットによる塩分濃度検出手法のベンチマークを行い,さらなる研究の必要性を強調した。
データベースとコードは \url{https://github.com/limuhit/VR-Video-Quality-in-the-Wild} で公開しています。
関連論文リスト
- KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - NPF-200: A Multi-Modal Eye Fixation Dataset and Method for
Non-Photorealistic Videos [51.409547544747284]
NPF-200は、視線を固定した純粋にフォトリアリスティックでないビデオの大規模なマルチモーダルデータセットである。
私たちは一連の分析を行い、このタスクについてより深い洞察を得ます。
NPSNetと呼ばれる広帯域周波数対応マルチモーダル非フォトリアリスティックサリエンシ検出モデルを提案する。
論文 参考訳(メタデータ) (2023-08-23T14:25:22Z) - Perceptual Quality Assessment of Face Video Compression: A Benchmark and
An Effective Method [69.868145936998]
生成的符号化アプローチは、合理的な速度歪曲トレードオフを持つ有望な代替手段として認識されている。
従来のハイブリッドコーディングフレームワークから生成モデルまで、空間的・時間的領域における歪みの多様さは、圧縮顔画像品質評価(VQA)における大きな課題を提示する。
大規模圧縮顔画像品質評価(CFVQA)データベースを導入し,顔ビデオの知覚的品質と多角化圧縮歪みを体系的に理解するための最初の試みである。
論文 参考訳(メタデータ) (2023-04-14T11:26:09Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - Blindly Assess Quality of In-the-Wild Videos via Quality-aware
Pre-training and Motion Perception [32.87570883484805]
本稿では,画像品質評価(IQA)データベースからの知識の伝達と,リッチな動きパターンを用いた大規模行動認識を提案する。
対象のVQAデータベース上で、混合リストワイドランキング損失関数を用いて、提案したモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-08-19T05:29:19Z) - Unified Quality Assessment of In-the-Wild Videos with Mixed Datasets
Training [20.288424566444224]
我々は、コンピュータビジョンアプリケーションにおいて、Wildビデオの品質を自動評価することに注力する。
品質評価モデルの性能向上のために,人間の知覚から直観を借りる。
複数のデータセットで単一のVQAモデルをトレーニングするための混合データセットトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-11-09T09:22:57Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。