論文の概要: No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2006.03783v1
- Date: Sat, 6 Jun 2020 05:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:59:50.200789
- Title: No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning
- Title(参考訳): 特徴融合とマルチタスク学習による非参照画像品質評価
- Authors: S. Alireza Golestaneh, Kris Kitani
- Abstract要約: ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
- 参考スコア(独自算出の注目度): 29.19484863898778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blind or no-reference image quality assessment (NR-IQA) is a fundamental,
unsolved, and yet challenging problem due to the unavailability of a reference
image. It is vital to the streaming and social media industries that impact
billions of viewers daily. Although previous NR-IQA methods leveraged different
feature extraction approaches, the performance bottleneck still exists. In this
paper, we propose a simple and yet effective general-purpose no-reference (NR)
image quality assessment (IQA) framework based on multi-task learning. Our
model employs distortion types as well as subjective human scores to predict
image quality. We propose a feature fusion method to utilize distortion
information to improve the quality score estimation task. In our experiments,
we demonstrate that by utilizing multi-task learning and our proposed feature
fusion method, our model yields better performance for the NR-IQA task. To
demonstrate the effectiveness of our approach, we test our approach on seven
standard datasets and show that we achieve state-of-the-art results on various
datasets.
- Abstract(参考訳): ブラインドまたは非参照画像品質評価(NR-IQA)は、参照画像が利用できないため、基本的で未解決でありながら難しい問題である。
毎日何十億もの視聴者に影響を与えるストリーミングやソーシャルメディア産業にとって不可欠だ。
NR-IQA法は様々な特徴抽出手法を応用したが、性能ボトルネックは依然として残っている。
本稿では,マルチタスク学習に基づく簡易かつ効果的な汎用no-reference(nr)画像品質評価(iqa)フレームワークを提案する。
本モデルでは歪み型と主観的人間のスコアを用いて画質を推定する。
歪み情報を利用して品質スコア推定タスクを改善する特徴融合法を提案する。
本実験では,マルチタスク学習と特徴融合法を用いて,NR-IQAタスクの性能向上を実証した。
提案手法の有効性を示すために,7つの標準データセット上でのアプローチをテストし,様々なデータセットで最新の結果が得られることを示す。
関連論文リスト
- Feature Denoising Diffusion Model for Blind Image Quality Assessment [58.5808754919597]
Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
論文 参考訳(メタデータ) (2024-01-22T13:38:24Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。