論文の概要: No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2006.03783v1
- Date: Sat, 6 Jun 2020 05:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:59:50.200789
- Title: No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning
- Title(参考訳): 特徴融合とマルチタスク学習による非参照画像品質評価
- Authors: S. Alireza Golestaneh, Kris Kitani
- Abstract要約: ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
- 参考スコア(独自算出の注目度): 29.19484863898778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blind or no-reference image quality assessment (NR-IQA) is a fundamental,
unsolved, and yet challenging problem due to the unavailability of a reference
image. It is vital to the streaming and social media industries that impact
billions of viewers daily. Although previous NR-IQA methods leveraged different
feature extraction approaches, the performance bottleneck still exists. In this
paper, we propose a simple and yet effective general-purpose no-reference (NR)
image quality assessment (IQA) framework based on multi-task learning. Our
model employs distortion types as well as subjective human scores to predict
image quality. We propose a feature fusion method to utilize distortion
information to improve the quality score estimation task. In our experiments,
we demonstrate that by utilizing multi-task learning and our proposed feature
fusion method, our model yields better performance for the NR-IQA task. To
demonstrate the effectiveness of our approach, we test our approach on seven
standard datasets and show that we achieve state-of-the-art results on various
datasets.
- Abstract(参考訳): ブラインドまたは非参照画像品質評価(NR-IQA)は、参照画像が利用できないため、基本的で未解決でありながら難しい問題である。
毎日何十億もの視聴者に影響を与えるストリーミングやソーシャルメディア産業にとって不可欠だ。
NR-IQA法は様々な特徴抽出手法を応用したが、性能ボトルネックは依然として残っている。
本稿では,マルチタスク学習に基づく簡易かつ効果的な汎用no-reference(nr)画像品質評価(iqa)フレームワークを提案する。
本モデルでは歪み型と主観的人間のスコアを用いて画質を推定する。
歪み情報を利用して品質スコア推定タスクを改善する特徴融合法を提案する。
本実験では,マルチタスク学習と特徴融合法を用いて,NR-IQAタスクの性能向上を実証した。
提案手法の有効性を示すために,7つの標準データセット上でのアプローチをテストし,様々なデータセットで最新の結果が得られることを示す。
関連論文リスト
- Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。