論文の概要: Subjective and Objective Quality Assessment of Non-Uniformly Distorted Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2501.11511v1
- Date: Mon, 20 Jan 2025 14:39:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:20:54.837634
- Title: Subjective and Objective Quality Assessment of Non-Uniformly Distorted Omnidirectional Images
- Title(参考訳): 非一様歪み全方位画像の主観的・客観的品質評価
- Authors: Jiebin Yan, Jiale Rao, Xuelin Liu, Yuming Fang, Yifan Zuo, Weide Liu,
- Abstract要約: ユーザの視動作を適応的にシミュレートすることで,非一様歪みに対する知覚誘導型OIQAモデルを提案する。
実験の結果,提案手法は最先端の手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 33.10692798685548
- License:
- Abstract: Omnidirectional image quality assessment (OIQA) has been one of the hot topics in IQA with the continuous development of VR techniques, and achieved much success in the past few years. However, most studies devote themselves to the uniform distortion issue, i.e., all regions of an omnidirectional image are perturbed by the ``same amount'' of noise, while ignoring the non-uniform distortion issue, i.e., partial regions undergo ``different amount'' of perturbation with the other regions in the same omnidirectional image. Additionally, nearly all OIQA models are verified on the platforms containing a limited number of samples, which largely increases the over-fitting risk and therefore impedes the development of OIQA. To alleviate these issues, we elaborately explore this topic from both subjective and objective perspectives. Specifically, we construct a large OIQA database containing 10,320 non-uniformly distorted omnidirectional images, each of which is generated by considering quality impairments on one or two camera len(s). Then we meticulously conduct psychophysical experiments and delve into the influence of both holistic and individual factors (i.e., distortion range and viewing condition) on omnidirectional image quality. Furthermore, we propose a perception-guided OIQA model for non-uniform distortion by adaptively simulating users' viewing behavior. Experimental results demonstrate that the proposed model outperforms state-of-the-art methods. The source code is available at https://github.com/RJL2000/OIQAND.
- Abstract(参考訳): OIQA(Omnidirectional Image Quality Assessment)は、VR技術の継続的な開発においてIQAのホットなトピックの一つであり、ここ数年で大きな成功を収めてきた。
しかし、ほとんどの研究は、一様歪み問題、すなわち全方位画像のすべての領域は、同じ全方位画像内の他の領域との摂動の「「差分量」の非一様歪み問題を無視しながら、"'same amount''のノイズによって摂動される。
さらに、ほとんどのOIQAモデルは限られた数のサンプルを含むプラットフォーム上で検証され、過度に適合するリスクが増大し、OIQAの開発を阻害する。
これらの問題を緩和するために、主観的視点と客観的視点の両方から、このトピックを精力的に探求する。
具体的には,不均一に歪んだ全方位画像10,320枚を含む大規模なOIQAデータベースを構築し,そのそれぞれが1つまたは2つのカメラレンズの品質障害を考慮して生成される。
そして、精神物理学的な実験を慎重に行い、全方位画像品質に対する全体的要因と個人的要因(歪み範囲と視聴条件)の影響を掘り下げる。
さらに,ユーザの視動作を適応的にシミュレートすることで,非一様歪みに対する知覚誘導型OIQAモデルを提案する。
実験結果から,提案モデルが最先端手法より優れていることが示された。
ソースコードはhttps://github.com/RJL2000/OIQANDで入手できる。
関連論文リスト
- Perceptual Depth Quality Assessment of Stereoscopic Omnidirectional Images [10.382801621282228]
立体視全方位画像の高能率非参照(NR)深度品質評価のための目標品質評価モデルDQIを開発した。
人間の視覚システム(HVS)の知覚特性に触発されたDQIは,多色チャネル,適応型ビューポート選択,眼間不一致の特徴を基盤として構築されている。
論文 参考訳(メタデータ) (2024-08-19T16:28:05Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Blind Omnidirectional Image Quality Assessment: Integrating Local
Statistics and Global Semantics [14.586878663223832]
我々は,低レベル統計量と全方位画像の高レベル意味論のギャップを埋める,S$2$というブラインド/ノン参照OIQA手法を提案する。
次に、重み付けプロセスとともに品質回帰を行い、抽出した品質認識特徴を知覚的品質予測にマッピングする。
論文 参考訳(メタデータ) (2023-02-24T01:47:13Z) - KonX: Cross-Resolution Image Quality Assessment [6.658103076536836]
本研究は,この2つの問題を,KonXを介して別々に検討した最初の研究である。
対象のIQA法はスケールバイアスを有しており,予測性能が低下することを示す。
本稿では,従来のIQAモデルよりも高性能なマルチスケール・マルチカラムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-12T10:23:48Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。