論文の概要: Perceptual Quality Assessment of Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2207.02674v1
- Date: Wed, 6 Jul 2022 13:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:52:07.973754
- Title: Perceptual Quality Assessment of Omnidirectional Images
- Title(参考訳): 全方位画像の知覚品質評価
- Authors: Huiyu Duan, Guangtao Zhai, Xiongkuo Min, Yucheng Zhu, Yi Fang,
Xiaokang Yang
- Abstract要約: 16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
- 参考スコア(独自算出の注目度): 81.76416696753947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional images and videos can provide immersive experience of
real-world scenes in Virtual Reality (VR) environment. We present a perceptual
omnidirectional image quality assessment (IQA) study in this paper since it is
extremely important to provide a good quality of experience under the VR
environment. We first establish an omnidirectional IQA (OIQA) database, which
includes 16 source images and 320 distorted images degraded by 4 commonly
encountered distortion types, namely JPEG compression, JPEG2000 compression,
Gaussian blur and Gaussian noise. Then a subjective quality evaluation study is
conducted on the OIQA database in the VR environment. Considering that humans
can only see a part of the scene at one movement in the VR environment, visual
attention becomes extremely important. Thus we also track head and eye movement
data during the quality rating experiments. The original and distorted
omnidirectional images, subjective quality ratings, and the head and eye
movement data together constitute the OIQA database. State-of-the-art
full-reference (FR) IQA measures are tested on the OIQA database, and some new
observations different from traditional IQA are made.
- Abstract(参考訳): 全方位画像とビデオは、仮想現実(vr)環境で現実世界のシーンを没入的に体験することができる。
本稿では,VR環境下での良質な体験を提供することが極めて重要であるため,知覚的全方位画像品質評価(IQA)について検討する。
まず,全方位IQA(OIQA)データベースを構築し,ソース画像16枚と,JPEG圧縮,JPEG2000圧縮,ガウスぼけ,ガウス雑音の4種類の歪み型で劣化した320個の歪み画像を含む。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
人間はvr環境の1つの動きでシーンの一部しか見ることができないので、視覚的な注意は極めて重要である。
また,品質評価実験における頭部・眼球運動データも追跡した。
原画像と歪んだ全方位画像、主観的品質評価、頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
最新の全参照(FR)IQA測度はOIQAデータベース上でテストされ、従来のIQAとは異なる新しい観測結果が得られた。
関連論文リスト
- Subjective and Objective Quality Assessment of Non-Uniformly Distorted Omnidirectional Images [33.10692798685548]
ユーザの視動作を適応的にシミュレートすることで,非一様歪みに対する知覚誘導型OIQAモデルを提案する。
実験の結果,提案手法は最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-01-20T14:39:50Z) - Embodied Image Quality Assessment for Robotic Intelligence [36.80460733311791]
まず,画像品質評価(EIQA)フレームワークを提案する。
我々は,ロボットの下流作業に基づく入力画像の評価基準を確立する。
実験により、エンボディ画像の品質評価は人間と異なることが示された。
論文 参考訳(メタデータ) (2024-12-25T04:29:22Z) - ESIQA: Perceptual Quality Assessment of Vision-Pro-based Egocentric Spatial Images [70.68629648595677]
エゴセントリックな空間画像とビデオは、立体XRコンテンツの魅力的な形態として現れつつある。
エゴセントリック空間画像品質評価データベース(ESIQAD)は、エゴセントリック空間画像専用の最初のIQAデータベースである。
ESIQADには500枚のエゴ中心の空間画像、Apple Vision Proで撮影した400枚の画像、iPhoneの「Spatial Camera」アプリで生成された100枚の画像が含まれている。
論文 参考訳(メタデータ) (2024-07-31T06:20:21Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Subjective and Objective Quality Assessment for in-the-Wild Computer
Graphics Images [57.02760260360728]
我々は6000のCGI(CGIQA-6k)からなる大規模CGIQAデータベースを構築した。
本稿では, 歪みと美的品質表現を両立させて, 効果的な深層学習に基づくno-reference (NR) IQAモデルを提案する。
実験の結果,提案手法は構築したCGIQA-6kデータベース上で,最先端のNR IQA法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-14T16:32:24Z) - ST360IQ: No-Reference Omnidirectional Image Quality Assessment with
Spherical Vision Transformers [17.48330099000856]
ノン参照360画像品質評価法を提案する。
提案手法は,全方位画像の品質と人間の知覚画像品質の相関関係を推定する。
論文 参考訳(メタデータ) (2023-03-13T07:48:46Z) - Perceptual Quality Assessment of Virtual Reality Videos in the Wild [53.94620993606658]
既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
論文 参考訳(メタデータ) (2022-06-13T02:22:57Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。