論文の概要: A combined full-reference image quality assessment approach based on
convolutional activation maps
- arxiv url: http://arxiv.org/abs/2010.09361v3
- Date: Thu, 3 Dec 2020 05:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:50:27.488556
- Title: A combined full-reference image quality assessment approach based on
convolutional activation maps
- Title(参考訳): 畳み込み活性化マップを用いたフルリファレンス画像品質評価手法
- Authors: Domonkos Varga
- Abstract要約: フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of full-reference image quality assessment (FR-IQA) is to predict
the quality of an image as perceived by human observers with using its
pristine, reference counterpart. In this study, we explore a novel, combined
approach which predicts the perceptual quality of a distorted image by
compiling a feature vector from convolutional activation maps. More
specifically, a reference-distorted image pair is run through a pretrained
convolutional neural network and the activation maps are compared with a
traditional image similarity metric. Subsequently, the resulted feature vector
is mapped onto perceptual quality scores with the help of a trained support
vector regressor. A detailed parameter study is also presented in which the
design choices of the proposed method is reasoned. Furthermore, we study the
relationship between the amount of training images and the prediction
performance. Specifically, it is demonstrated that the proposed method can be
trained with few amount of data to reach high prediction performance. Our best
proposal - ActMapFeat - is compared to the state-of-the-art on six publicly
available benchmark IQA databases, such as KADID-10k, TID2013, TID2008, MDID,
CSIQ, and VCL-FER. Specifically, our method is able to significantly outperform
the state-of-the-art on these benchmark databases.
- Abstract(参考訳): フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する,新しい組み合わせアプローチを提案する。
より具体的には、予め訓練された畳み込みニューラルネットワークを介して参照歪画像ペアを実行し、アクティベーションマップを従来の画像類似度メトリクスと比較する。
その後、訓練されたサポートベクターレグレッサの助けを借りて、得られた特徴ベクトルを知覚品質スコアにマッピングする。
また,提案手法の設計選択を推論する詳細なパラメータスタディも提示した。
さらに,トレーニング画像の量と予測性能の関係について検討した。
具体的には,提案手法を少ないデータ量で訓練し,高い予測性能が得られることを示した。
私たちのベストな提案であるActMapFeatは、KADID-10k、TID2013、TID2008、MDID、CSIQ、VCL-FERといった6つの公開ベンチマークIQAデータベースの最先端と比較されます。
特に,本手法は,ベンチマークデータベースの最先端を著しく上回ることができる。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Test-time Distribution Learning Adapter for Cross-modal Visual Reasoning [16.998833621046117]
テスト期間中に直接動作するTT-DNA(Test-Time Distribution LearNing Adapter)を提案する。
具体的には,ガウス分布を推定し,少数ショット支援画像の視覚的特徴をモデル化し,支援セットから知識を抽出する。
ヒトの物体相互作用の視覚的推論に関する広範な実験結果から,提案したTT-DNAは既存の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2024-03-10T01:34:45Z) - CorrEmbed: Evaluating Pre-trained Model Image Similarity Efficacy with a
Novel Metric [6.904776368895614]
我々は、CorrEmbedという新しいアプローチを用いて、事前訓練されたコンピュータビジョンモデルから画像埋め込みの有効性を評価する。
本研究では,画像埋め込みにおける距離と人為的タグベクトルにおける距離との相関を計算した。
また,このパターンからの逸脱を同定し,異なるモデルが高レベル画像の特徴をどのように捉えているかについての洞察を与える。
論文 参考訳(メタデータ) (2023-08-30T16:23:07Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - CR-FIQA: Face Image Quality Assessment by Learning Sample Relative
Classifiability [2.3624125155742055]
本稿では,学習過程における内部ネットワーク観測を学習する新しい学習パラダイムを提案する。
提案するCR-FIQAは,このパラダイムを用いて,サンプルの顔画像品質を,その相対的分類可能性の予測により推定する。
本研究では, 最先端(SOTA) FIQAアルゴリズムよりもCR-FIQAの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-13T12:18:43Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。