論文の概要: A Database for Perceived Quality Assessment of User-Generated VR Videos
- arxiv url: http://arxiv.org/abs/2206.08751v1
- Date: Mon, 13 Jun 2022 02:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 07:35:49.811863
- Title: A Database for Perceived Quality Assessment of User-Generated VR Videos
- Title(参考訳): ユーザ生成VRビデオの品質評価のためのデータベース
- Authors: Yuming Fang, Yiru Yao, Xiangjie Sui, and Kede Ma
- Abstract要約: 私たちは、豊富なコンテンツと歪みの多様性を備えた502のユーザ生成ビデオを含む、360ドル規模で最大のビデオデータベースの1つを構築します。
我々は,139人のユーザの視聴行動を捉え,その評価スコアを4つの異なる視聴条件下で収集する。
記録データの詳細な統計分析を行い、いくつかの興味深い観測結果を得た。
- 参考スコア(独自算出の注目度): 45.05333159331041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual reality (VR) videos (typically in the form of 360$^\circ$ videos)
have gained increasing attention due to the fast development of VR technologies
and the remarkable popularization of consumer-grade 360$^\circ$ cameras and
displays. Thus it is pivotal to understand how people perceive user-generated
VR videos, which may suffer from commingled authentic distortions, often
localized in space and time. In this paper, we establish one of the largest
360$^\circ$ video databases, containing 502 user-generated videos with rich
content and distortion diversities. We capture viewing behaviors (i.e.,
scanpaths) of 139 users, and collect their opinion scores of perceived quality
under four different viewing conditions (two starting points $\times$ two
exploration times). We provide a thorough statistical analysis of recorded
data, resulting in several interesting observations, such as the significant
impact of viewing conditions on viewing behaviors and perceived quality.
Besides, we explore other usage of our data and analysis, including evaluation
of computational models for quality assessment and saliency detection of
360$^\circ$ videos. We have made the dataset and code available at
https://github.com/Yao-Yiru/VR-Video-Database.
- Abstract(参考訳): 仮想現実(vr)ビデオ(通常は360$^\circ$ビデオ)は、vr技術の急速な発展と、消費者向けの360$^\circ$カメラやディスプレイの普及により、注目を集めている。
したがって、ユーザーが生み出すVRビデオをどのように知覚するかを理解することが重要であり、それは、しばしば空間と時間で局所化される真正な歪みに悩まされる可能性がある。
本稿では,豊富なコンテンツと歪みのある502のユーザ生成ビデオを含む,最大規模の360$^\circ$ビデオデータベースを構築する。
139人の視聴行動(すなわちスキャンパス)を捉え、4つの異なる視聴条件下で評価された品質の意見スコアを収集する(2つの開始点$\times$2回の探索時間)。
本研究では,記録データに対する詳細な統計分析を行い,視聴状況が視聴行動や知覚品質に与える影響など,いくつかの興味深い観察結果を得た。
また,360$^\circ$ビデオの品質評価のための計算モデルの評価,サリエンシー検出など,データと分析の他の用途についても検討した。
データセットとコードはhttps://github.com/Yao-Yiru/VR-Video-Database.comで公開しています。
関連論文リスト
- AIM 2024 Challenge on Compressed Video Quality Assessment: Methods and Results [120.95863275142727]
本稿では,ECCV 2024における画像操作の進歩(AIM)ワークショップと共同で開催されている圧縮映像品質評価の課題について述べる。
この課題は、様々な圧縮標準の14コーデックで符号化された459本の動画の多様なデータセット上で、VQA法の性能を評価することであった。
論文 参考訳(メタデータ) (2024-08-21T20:32:45Z) - WildVidFit: Video Virtual Try-On in the Wild via Image-Based Controlled Diffusion Models [132.77237314239025]
ビデオ仮想トライオンは、衣料品のアイデンティティを維持し、ソースビデオにおける人のポーズと身体の形に適応する現実的なシーケンスを生成することを目的としている。
従来の画像ベースの手法は、ワープとブレンディングに依存しており、複雑な人間の動きや閉塞に苦しむ。
衣料品の説明や人間の動きを条件とした映像生成のプロセスとして,映像試行を再認識する。
私たちのソリューションであるWildVidFitは、画像ベースで制御された拡散モデルを用いて、一段階の合理化を図っている。
論文 参考訳(メタデータ) (2024-07-15T11:21:03Z) - KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - Blindly Assess Quality of In-the-Wild Videos via Quality-aware
Pre-training and Motion Perception [32.87570883484805]
本稿では,画像品質評価(IQA)データベースからの知識の伝達と,リッチな動きパターンを用いた大規模行動認識を提案する。
対象のVQAデータベース上で、混合リストワイドランキング損失関数を用いて、提案したモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-08-19T05:29:19Z) - Unified Quality Assessment of In-the-Wild Videos with Mixed Datasets
Training [20.288424566444224]
我々は、コンピュータビジョンアプリケーションにおいて、Wildビデオの品質を自動評価することに注力する。
品質評価モデルの性能向上のために,人間の知覚から直観を借りる。
複数のデータセットで単一のVQAモデルをトレーニングするための混合データセットトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-11-09T09:22:57Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。