論文の概要: Spatial Attention-based Non-reference Perceptual Quality Prediction
Network for Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2103.06116v1
- Date: Wed, 10 Mar 2021 15:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 05:41:43.281024
- Title: Spatial Attention-based Non-reference Perceptual Quality Prediction
Network for Omnidirectional Images
- Title(参考訳): 空間的注意に基づく全方向画像の非参照知覚品質予測ネットワーク
- Authors: Li Yang, Mai Xu, Deng Xin and Bo Feng
- Abstract要約: 全方位画像の非参照品質評価のための空間的注意に基づく知覚品質予測ネットワークを提案する。
本ネットワークは,視覚障害者の知覚的品質を自己照査によって適応的に推定する。
本手法は,ODIにおける品質評価タスクの計算複雑性を大幅に低減する。
- 参考スコア(独自算出の注目度): 45.10415051990854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the strong correlation between visual attention and perceptual
quality, many methods attempt to use human saliency information for image
quality assessment. Although this mechanism can get good performance, the
networks require human saliency labels, which is not easily accessible for
omnidirectional images (ODI). To alleviate this issue, we propose a spatial
attention-based perceptual quality prediction network for non-reference quality
assessment on ODIs (SAP-net). To drive our SAP-net, we establish a large-scale
IQA dataset of ODIs (IQA-ODI), which is composed of subjective scores of 200
subjects on 1,080 ODIs. In IQA-ODI, there are 120 high quality ODIs as
reference, and 960 ODIs with impairments in both JPEG compression and map
projection. Without any human saliency labels, our network can adaptively
estimate human perceptual quality on impaired ODIs through a self-attention
manner, which significantly promotes the prediction performance of quality
scores. Moreover, our method greatly reduces the computational complexity in
quality assessment task on ODIs. Extensive experiments validate that our
network outperforms 9 state-of-the-art methods for quality assessment on ODIs.
The dataset and code have been available on \url{
https://github.com/yanglixiaoshen/SAP-Net}.
- Abstract(参考訳): 視覚的注意と知覚的品質の相関が強いため、画像品質評価にヒトの唾液情報を使用しようとする手法は多い。
このメカニズムは優れた性能を得ることができるが、ネットワークは、全方位画像(ODI)に容易にアクセスできない人間の唾液ラベルを必要とする。
この問題を軽減するために,ODI(SAP-net)の非参照品質評価のための空間的注意に基づく知覚品質予測ネットワークを提案する。
SAP-netを駆動するために,1,080 ODIに対して200人の被験者の主観的スコアからなる大規模IQAデータセット(IQA-ODI)を構築した。
IQA-ODIには120の高品質のODIと960のODIがあり、JPEG圧縮とマップ投影の両方に障害がある。
人間の敬礼ラベルがないと、ネットワークは自己照査によってodisの人間の知覚的品質を適応的に推定でき、それによって品質スコアの予測性能が著しく向上する。
さらに,本手法は,ODIにおける品質評価タスクの計算複雑性を大幅に低減する。
広範な実験は、当社のネットワークがODIの品質評価のための9つの最先端の方法を上回ることを検証します。
データセットとコードは \url{ https://github.com/yanglixiaoshen/SAP-Net} で入手できる。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - AIGIQA-20K: A Large Database for AI-Generated Image Quality Assessment [54.93996119324928]
AIGIQA-20Kとして知られる2万のAIGIと420,000の主観評価を備えた、これまでで最大のAIGI主観的品質データベースを作成します。
このデータベース上でベンチマーク実験を行い、16の主流AIGI品質モデルと人間の知覚との対応性を評価する。
論文 参考訳(メタデータ) (2024-04-04T12:12:24Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - DeepWSD: Projecting Degradations in Perceptual Space to Wasserstein
Distance in Deep Feature Space [67.07476542850566]
本稿では,統計的分布の観点から知覚空間の品質劣化をモデル化する。
品質は、深い特徴領域におけるワッサーシュタイン距離に基づいて測定される。
ニューラルネットワークの特徴に基づいて実行されるディープワッサースタイン距離(ディープWSD)は、品質汚染のより良い解釈性をもたらす。
論文 参考訳(メタデータ) (2022-08-05T02:46:12Z) - No-Reference Point Cloud Quality Assessment via Domain Adaptation [31.280188860021248]
本稿では,3次元点雲に対する画像伝達点雲品質評価(IT-PCQA)の新たな非参照品質評価指標を提案する。
特に,自然画像をソース領域として,点雲を対象領域として扱うとともに,教師なしの敵領域適応により点雲の品質を推定する。
実験結果から,提案手法は従来のノン参照指標よりも高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-12-06T08:20:40Z) - Deep Neural Networks for Blind Image Quality Assessment: Addressing the
Data Challenge [20.97986692607478]
主観的テストの制約により、数百万の画像からなる人格分類IQAデータセットを作成することは困難である。
EONSSと呼ばれるDNNベースのBIQAモデルを構築し、Waterloo Exploration-IIでトレーニングし、9つの主観評価IQAデータセット上でテストする。
論文 参考訳(メタデータ) (2021-09-24T19:48:52Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。