論文の概要: Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience
- arxiv url: http://arxiv.org/abs/2204.04900v1
- Date: Mon, 11 Apr 2022 07:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 17:39:52.771488
- Title: Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience
- Title(参考訳): 画像品質評価の混乱 : 拡張現実体験の改善に向けて
- Authors: Huiyu Duan, Xiongkuo Min, Yucheng Zhu, Guangtao Zhai, Xiaokang Yang,
Patrick Le Callet
- Abstract要約: 我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
- 参考スコア(独自算出の注目度): 96.29124666702566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of multimedia technology, Augmented Reality (AR) has
become a promising next-generation mobile platform. The primary value of AR is
to promote the fusion of digital contents and real-world environments, however,
studies on how this fusion will influence the Quality of Experience (QoE) of
these two components are lacking. To achieve better QoE of AR, whose two layers
are influenced by each other, it is important to evaluate its perceptual
quality first. In this paper, we consider AR technology as the superimposition
of virtual scenes and real scenes, and introduce visual confusion as its basic
theory. A more general problem is first proposed, which is evaluating the
perceptual quality of superimposed images, i.e., confusing image quality
assessment. A ConFusing Image Quality Assessment (CFIQA) database is
established, which includes 600 reference images and 300 distorted images
generated by mixing reference images in pairs. Then a subjective quality
perception study and an objective model evaluation experiment are conducted
towards attaining a better understanding of how humans perceive the confusing
images. An objective metric termed CFIQA is also proposed to better evaluate
the confusing image quality. Moreover, an extended ARIQA study is further
conducted based on the CFIQA study. We establish an ARIQA database to better
simulate the real AR application scenarios, which contains 20 AR reference
images, 20 background (BG) reference images, and 560 distorted images generated
from AR and BG references, as well as the correspondingly collected subjective
quality ratings. We also design three types of full-reference (FR) IQA metrics
to study whether we should consider the visual confusion when designing
corresponding IQA algorithms. An ARIQA metric is finally proposed for better
evaluating the perceptual quality of AR images.
- Abstract(参考訳): マルチメディア技術の発展により、拡張現実(ar)は有望な次世代モバイルプラットフォームとなった。
arの主な価値は、デジタルコンテンツと現実世界の環境の融合を促進することであるが、この融合がこれら2つのコンポーネントのqoe(quality of experience)にどのように影響するかの研究が不足している。
2つの層が互いに影響を受けるarのqoeを改善するためには、まずその知覚的品質を評価することが重要である。
本稿では,AR技術を仮想シーンと実シーンの重ね合わせとみなし,視覚的混乱を基本的な理論として紹介する。
より一般的な問題は、重畳された画像の知覚的品質、すなわち、画像品質の混乱を評価することである。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
そして、人間がどのように混乱したイメージを知覚するかをよりよく理解するために、主観的品質知覚研究と客観的モデル評価実験を行う。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
さらに,CFIQA研究に基づいてARIQA研究を拡張した。
我々は、AR参照画像20、背景(BG)参照画像20、およびARおよびBG参照から生成された560の歪み画像と、対応する主観的品質評価を含む、実際のARアプリケーションシナリオをより良くシミュレートするARIQAデータベースを構築した。
また、対応するIQAアルゴリズムを設計する際に視覚的混乱を考慮すべきかどうかを検討するために、3種類の全参照IQAメトリクスを設計する。
AR画像の知覚品質を評価するためにARIQAメトリクスが提案されている。
関連論文リスト
- Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。