論文の概要: A combined full-reference image quality assessment approach based on
convolutional activation maps
- arxiv url: http://arxiv.org/abs/2010.09361v3
- Date: Thu, 3 Dec 2020 05:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:50:27.488556
- Title: A combined full-reference image quality assessment approach based on
convolutional activation maps
- Title(参考訳): 畳み込み活性化マップを用いたフルリファレンス画像品質評価手法
- Authors: Domonkos Varga
- Abstract要約: フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of full-reference image quality assessment (FR-IQA) is to predict
the quality of an image as perceived by human observers with using its
pristine, reference counterpart. In this study, we explore a novel, combined
approach which predicts the perceptual quality of a distorted image by
compiling a feature vector from convolutional activation maps. More
specifically, a reference-distorted image pair is run through a pretrained
convolutional neural network and the activation maps are compared with a
traditional image similarity metric. Subsequently, the resulted feature vector
is mapped onto perceptual quality scores with the help of a trained support
vector regressor. A detailed parameter study is also presented in which the
design choices of the proposed method is reasoned. Furthermore, we study the
relationship between the amount of training images and the prediction
performance. Specifically, it is demonstrated that the proposed method can be
trained with few amount of data to reach high prediction performance. Our best
proposal - ActMapFeat - is compared to the state-of-the-art on six publicly
available benchmark IQA databases, such as KADID-10k, TID2013, TID2008, MDID,
CSIQ, and VCL-FER. Specifically, our method is able to significantly outperform
the state-of-the-art on these benchmark databases.
- Abstract(参考訳): フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する,新しい組み合わせアプローチを提案する。
より具体的には、予め訓練された畳み込みニューラルネットワークを介して参照歪画像ペアを実行し、アクティベーションマップを従来の画像類似度メトリクスと比較する。
その後、訓練されたサポートベクターレグレッサの助けを借りて、得られた特徴ベクトルを知覚品質スコアにマッピングする。
また,提案手法の設計選択を推論する詳細なパラメータスタディも提示した。
さらに,トレーニング画像の量と予測性能の関係について検討した。
具体的には,提案手法を少ないデータ量で訓練し,高い予測性能が得られることを示した。
私たちのベストな提案であるActMapFeatは、KADID-10k、TID2013、TID2008、MDID、CSIQ、VCL-FERといった6つの公開ベンチマークIQAデータベースの最先端と比較されます。
特に,本手法は,ベンチマークデータベースの最先端を著しく上回ることができる。
関連論文リスト
- Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Test-time Distribution Learning Adapter for Cross-modal Visual Reasoning [16.998833621046117]
テスト期間中に直接動作するTT-DNA(Test-Time Distribution LearNing Adapter)を提案する。
具体的には,ガウス分布を推定し,少数ショット支援画像の視覚的特徴をモデル化し,支援セットから知識を抽出する。
ヒトの物体相互作用の視覚的推論に関する広範な実験結果から,提案したTT-DNAは既存の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2024-03-10T01:34:45Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - CR-FIQA: Face Image Quality Assessment by Learning Sample Relative
Classifiability [2.3624125155742055]
本稿では,学習過程における内部ネットワーク観測を学習する新しい学習パラダイムを提案する。
提案するCR-FIQAは,このパラダイムを用いて,サンプルの顔画像品質を,その相対的分類可能性の予測により推定する。
本研究では, 最先端(SOTA) FIQAアルゴリズムよりもCR-FIQAの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-13T12:18:43Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。