論文の概要: ESIQA: Perceptual Quality Assessment of Vision-Pro-based Egocentric Spatial Images
- arxiv url: http://arxiv.org/abs/2407.21363v1
- Date: Wed, 31 Jul 2024 06:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 18:41:45.419904
- Title: ESIQA: Perceptual Quality Assessment of Vision-Pro-based Egocentric Spatial Images
- Title(参考訳): ESIQA:視覚プロを用いたエゴセントリック空間画像の知覚的品質評価
- Authors: Xilei Zhu, Liu Yang, Huiyu Duan, Xiongkuo Min, Guangtao Zhai, Patrick Le Callet,
- Abstract要約: エゴセントリックな空間画像とビデオは、立体XRコンテンツの魅力的な形態として現れつつある。
エゴセントリック空間画像品質評価データベース(ESIQAD)は、エゴセントリック空間画像専用の最初のIQAデータベースである。
ESIQADには500枚のエゴ中心の空間画像、Apple Vision Proで撮影した400枚の画像、iPhoneの「Spatial Camera」アプリで生成された100枚の画像が含まれている。
- 参考スコア(独自算出の注目度): 70.68629648595677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of eXtended Reality (XR), head-mounted shooting and display technology have experienced significant advancement and gained considerable attention. Egocentric spatial images and videos are emerging as a compelling form of stereoscopic XR content. Different from traditional 2D images, egocentric spatial images present challenges for perceptual quality assessment due to their special shooting, processing methods, and stereoscopic characteristics. However, the corresponding image quality assessment (IQA) research for egocentric spatial images is still lacking. In this paper, we establish the Egocentric Spatial Images Quality Assessment Database (ESIQAD), the first IQA database dedicated for egocentric spatial images as far as we know. Our ESIQAD includes 500 egocentric spatial images, containing 400 images captured with the Apple Vision Pro and 100 images generated via an iPhone's "Spatial Camera" app. The corresponding mean opinion scores (MOSs) are collected under three viewing modes, including 2D display, 3D-window display, and 3D-immersive display. Furthermore, based on our database, we conduct a benchmark experiment and evaluate the performance of 22 state-of-the-art IQA models under three different viewing modes. We hope this research can facilitate future IQA research on egocentric spatial images. The database is available at https://github.com/IntMeGroup/ESIQA.
- Abstract(参考訳): eXtended Reality (XR)の開発により、ヘッドマウント・シューティングとディスプレイ技術は飛躍的な進歩を遂げ、注目を集めている。
エゴセントリックな空間画像とビデオは、立体XRコンテンツの魅力的な形態として現れつつある。
従来の2次元画像とは違って、自我中心の空間画像は、特別な撮影方法、処理方法、立体的特徴による知覚的品質評価の課題を示す。
しかし、エゴセントリック空間画像に対する対応する画像品質評価(IQA)研究はいまだに欠落している。
本稿では,エゴセントリック空間画像品質評価データベース (ESIQAD) を構築し,エゴセントリック空間画像を対象とした最初のIQAデータベースである。
ESIQADには、Apple Vision Proで撮影した400枚の画像と、iPhoneの「Spatial Camera」アプリで生成された100枚の画像が含まれています。
対応する平均意見スコア(MOS)は、2Dディスプレイ、3Dウィンドウディスプレイ、3D没入ディスプレイを含む3つの視聴モードで収集される。
さらに,本データベースをベースとしたベンチマーク実験を行い,22種類の最先端IQAモデルの性能を3つの異なる視聴モードで評価した。
この研究によって、エゴ中心空間画像のIQA研究が促進されることを願っている。
データベースはhttps://github.com/IntMeGroup/ESIQA.comで入手できる。
関連論文リスト
- Visual Verity in AI-Generated Imagery: Computational Metrics and Human-Centric Analysis [0.0]
我々は,フォトリアリズム,画質,テキスト画像のアライメントを計測するVisual Verityというアンケートを導入,検証した。
また, 色調, 彩度, 明度において, カメラ生成画像が低い値を示した。
その結果,人間の視覚的知覚をよりよく捉えるために,計算メトリクスの精細化の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-08-22T23:29:07Z) - UHD-IQA Benchmark Database: Pushing the Boundaries of Blind Photo Quality Assessment [4.563959812257119]
固定幅3840ピクセルの6073 UHD-1 (4K)画像からなる画像品質評価データセットを提案する。
私たちの作品は、高い技術品質の高度に美的な写真に焦点を当てており、文学のギャップを埋めています。
データセットには、クラウドソーシング調査を通じて得られた知覚的品質評価が注釈付けされている。
論文 参考訳(メタデータ) (2024-06-25T11:30:31Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - EgoLoc: Revisiting 3D Object Localization from Egocentric Videos with
Visual Queries [68.75400888770793]
我々は、エゴセントリックなビデオから2次元オブジェクトを検索することで、3次元のマルチビュー幾何をよりうまく絡み合わせるパイプラインを定式化する。
具体的には、VQ3Dタスクにおける新しい最先端の成果を設定できる87.12%の総合的な成功率を達成する。
論文 参考訳(メタデータ) (2022-12-14T01:28:12Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。