論文の概要: Max360IQ: Blind Omnidirectional Image Quality Assessment with Multi-axis Attention
- arxiv url: http://arxiv.org/abs/2502.19046v1
- Date: Wed, 26 Feb 2025 11:01:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:34.897398
- Title: Max360IQ: Blind Omnidirectional Image Quality Assessment with Multi-axis Attention
- Title(参考訳): Max360IQ:多軸アテンションによるブラインド全方位画像品質評価
- Authors: Jiebin Yan, Ziwen Tan, Yuming Fang, Jiale Rao, Yifan Zuo,
- Abstract要約: マルチ軸アテンションを用いた視覚的全方位画像品質評価モデル(Max360IQ)を提案する。
Max360IQは、一様歪んだ全方位画像の品質だけでなく、一様歪んだ全方位画像の品質も正確に測定できる。
- 参考スコア(独自算出の注目度): 30.688264840230755
- License:
- Abstract: Omnidirectional image, also called 360-degree image, is able to capture the entire 360-degree scene, thereby providing more realistic immersive feelings for users than general 2D image and stereoscopic image. Meanwhile, this feature brings great challenges to measuring the perceptual quality of omnidirectional images, which is closely related to users' quality of experience, especially when the omnidirectional images suffer from non-uniform distortion. In this paper, we propose a novel and effective blind omnidirectional image quality assessment (BOIQA) model with multi-axis attention (Max360IQ), which can proficiently measure not only the quality of uniformly distorted omnidirectional images but also the quality of non-uniformly distorted omnidirectional images. Specifically, the proposed Max360IQ is mainly composed of a backbone with stacked multi-axis attention modules for capturing both global and local spatial interactions of extracted viewports, a multi-scale feature integration (MSFI) module to fuse multi-scale features and a quality regression module with deep semantic guidance for predicting the quality of omnidirectional images. Experimental results demonstrate that the proposed Max360IQ outperforms the state-of-the-art Assessor360 by 3.6\% in terms of SRCC on the JUFE database with non-uniform distortion, and gains improvement of 0.4\% and 0.8\% in terms of SRCC on the OIQA and CVIQ databases, respectively. The source code is available at https://github.com/WenJuing/Max360IQ.
- Abstract(参考訳): 360度画像とも呼ばれる全方位画像は、360度全景を捉え、一般の2D画像や立体画像よりも現実的な没入感を与える。
一方,全方位画像の知覚的品質はユーザ体験の質と密接に関連しているため,特に全方位画像が一様歪みに悩まされている場合,この特徴は大きな課題となる。
本稿では,一様に歪んだ全方位画像の品質だけでなく,一様に歪んだ全方位画像の品質も正確に測定できる,多軸アテンション(Max360IQ)を備えた新規で効果的な全方位画像品質評価(BOIQA)モデルを提案する。
具体的には、抽出されたビューポートのグローバルな空間的相互作用とローカルな空間的相互作用をキャプチャする多軸アテンションモジュールを備えたバックボーンと、マルチスケール特徴を融合するマルチスケール機能統合(MSFI)モジュールと、全方位画像の品質を予測するための深いセマンティックガイダンスを備えた品質回帰モジュールで構成されている。
実験の結果, 提案したMax360IQは, 非一様歪みのJUFEデータベース上でのSRCCでは最先端のAssessor360の3.6倍, OIQAおよびCVIQデータベースでは0.4\%, 0.8\%向上した。
ソースコードはhttps://github.com/WenJuing/Max360IQで入手できる。
関連論文リスト
- Subjective and Objective Quality Assessment of Non-Uniformly Distorted Omnidirectional Images [33.10692798685548]
ユーザの視動作を適応的にシミュレートすることで,非一様歪みに対する知覚誘導型OIQAモデルを提案する。
実験の結果,提案手法は最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-01-20T14:39:50Z) - Perceptual Depth Quality Assessment of Stereoscopic Omnidirectional Images [10.382801621282228]
立体視全方位画像の高能率非参照(NR)深度品質評価のための目標品質評価モデルDQIを開発した。
人間の視覚システム(HVS)の知覚特性に触発されたDQIは,多色チャネル,適応型ビューポート選択,眼間不一致の特徴を基盤として構築されている。
論文 参考訳(メタデータ) (2024-08-19T16:28:05Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - ST360IQ: No-Reference Omnidirectional Image Quality Assessment with
Spherical Vision Transformers [17.48330099000856]
ノン参照360画像品質評価法を提案する。
提案手法は,全方位画像の品質と人間の知覚画像品質の相関関係を推定する。
論文 参考訳(メタデータ) (2023-03-13T07:48:46Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - No-Reference Quality Assessment for 360-degree Images by Analysis of
Multi-frequency Information and Local-global Naturalness [26.614657212889398]
360度・全方位画像(OIs)は、仮想現実(VR)の普及により注目されている。
マルチ周波数情報と局所Global Naturalness(MFILGN)を用いた新しい非参照全方位画像品質評価アルゴリズム(NR OIQA)を提案する。
2つのOIQAデータベースの実験結果は、提案されたMFILGNが最先端のアプローチを上回っていることを示しています。
論文 参考訳(メタデータ) (2021-02-22T22:52:35Z) - Visual Question Answering on 360{\deg} Images [96.00046925811515]
VQA 360は、360度画像上で視覚的な質問に答える新しいタスクである。
最初のVQA 360データセットを収集し、様々な質問タイプに対して、約17,000の現実世界の画像検索用トリプルを含む。
論文 参考訳(メタデータ) (2020-01-10T08:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。