論文の概要: Perceptual Quality Assessment of Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2207.02674v1
- Date: Wed, 6 Jul 2022 13:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:52:07.973754
- Title: Perceptual Quality Assessment of Omnidirectional Images
- Title(参考訳): 全方位画像の知覚品質評価
- Authors: Huiyu Duan, Guangtao Zhai, Xiongkuo Min, Yucheng Zhu, Yi Fang,
Xiaokang Yang
- Abstract要約: 16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
- 参考スコア(独自算出の注目度): 81.76416696753947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional images and videos can provide immersive experience of
real-world scenes in Virtual Reality (VR) environment. We present a perceptual
omnidirectional image quality assessment (IQA) study in this paper since it is
extremely important to provide a good quality of experience under the VR
environment. We first establish an omnidirectional IQA (OIQA) database, which
includes 16 source images and 320 distorted images degraded by 4 commonly
encountered distortion types, namely JPEG compression, JPEG2000 compression,
Gaussian blur and Gaussian noise. Then a subjective quality evaluation study is
conducted on the OIQA database in the VR environment. Considering that humans
can only see a part of the scene at one movement in the VR environment, visual
attention becomes extremely important. Thus we also track head and eye movement
data during the quality rating experiments. The original and distorted
omnidirectional images, subjective quality ratings, and the head and eye
movement data together constitute the OIQA database. State-of-the-art
full-reference (FR) IQA measures are tested on the OIQA database, and some new
observations different from traditional IQA are made.
- Abstract(参考訳): 全方位画像とビデオは、仮想現実(vr)環境で現実世界のシーンを没入的に体験することができる。
本稿では,VR環境下での良質な体験を提供することが極めて重要であるため,知覚的全方位画像品質評価(IQA)について検討する。
まず,全方位IQA(OIQA)データベースを構築し,ソース画像16枚と,JPEG圧縮,JPEG2000圧縮,ガウスぼけ,ガウス雑音の4種類の歪み型で劣化した320個の歪み画像を含む。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
人間はvr環境の1つの動きでシーンの一部しか見ることができないので、視覚的な注意は極めて重要である。
また,品質評価実験における頭部・眼球運動データも追跡した。
原画像と歪んだ全方位画像、主観的品質評価、頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
最新の全参照(FR)IQA測度はOIQAデータベース上でテストされ、従来のIQAとは異なる新しい観測結果が得られた。
関連論文リスト
- Subjective and Objective Quality Assessment for in-the-Wild Computer
Graphics Images [57.02760260360728]
我々は6000のCGI(CGIQA-6k)からなる大規模CGIQAデータベースを構築した。
本稿では, 歪みと美的品質表現を両立させて, 効果的な深層学習に基づくno-reference (NR) IQAモデルを提案する。
実験の結果,提案手法は構築したCGIQA-6kデータベース上で,最先端のNR IQA法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-14T16:32:24Z) - ST360IQ: No-Reference Omnidirectional Image Quality Assessment with
Spherical Vision Transformers [17.48330099000856]
ノン参照360画像品質評価法を提案する。
提案手法は,全方位画像の品質と人間の知覚画像品質の相関関係を推定する。
論文 参考訳(メタデータ) (2023-03-13T07:48:46Z) - Perceptual Quality Assessment of Virtual Reality Videos in the Wild [50.33693148440248]
既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
論文 参考訳(メタデータ) (2022-06-13T02:22:57Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Cuid: A new study of perceived image quality and its subjective
assessment [30.698984450985318]
本研究では,実験室環境下で主観的評価を収集する画像品質知覚法を提案する。
画像の異なるカテゴリと異なる種類と歪みのレベルの組み合わせによって、品質知覚がどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2020-09-28T13:14:45Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。