論文の概要: No-Reference Image Contrast Assessment with Customized EfficientNet-B0
- arxiv url: http://arxiv.org/abs/2509.21967v1
- Date: Fri, 26 Sep 2025 06:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.248724
- Title: No-Reference Image Contrast Assessment with Customized EfficientNet-B0
- Title(参考訳): カスタマイズされたNet-B0による非参照画像コントラスト評価
- Authors: Javad Hassannataj Joloudari, Bita Mesbahzadeh, Omid Zare, Emrah Arslan, Roohallah Alizadehsani, Hossein Moosaei,
- Abstract要約: NR IQAモデルでは,様々な実環境下でのコントラスト歪みの精度評価に苦慮した基準画像品質評価は行われなかった。
本研究では,ブラインドコントラスト品質評価のためのディープラーニングに基づくフレームワークを提案する。
モデルはコントラスト対応レグレッションヘッドと、ターゲットデータ拡張を使用してトレーニングされたエンドツーエンドで修正される。
- 参考スコア(独自算出の注目度): 3.4527546378946
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image contrast was a fundamental factor in visual perception and played a vital role in overall image quality. However, most no reference image quality assessment NR IQA models struggled to accurately evaluate contrast distortions under diverse real world conditions. In this study, we proposed a deep learning based framework for blind contrast quality assessment by customizing and fine-tuning three pre trained architectures, EfficientNet B0, ResNet18, and MobileNetV2, for perceptual Mean Opinion Score, along with an additional model built on a Siamese network, which indicated a limited ability to capture perceptual contrast distortions. Each model is modified with a contrast-aware regression head and trained end to end using targeted data augmentations on two benchmark datasets, CID2013 and CCID2014, containing synthetic and authentic contrast distortions. Performance is evaluated using Pearson Linear Correlation Coefficient and Spearman Rank Order Correlation Coefficient, which assess the alignment between predicted and human rated scores. Among these three models, our customized EfficientNet B0 model achieved state-of-the-art performance with PLCC = 0.9286 and SRCC = 0.9178 on CCID2014 and PLCC = 0.9581 and SRCC = 0.9369 on CID2013, surpassing traditional methods and outperforming other deep baselines. These results highlighted the models robustness and effectiveness in capturing perceptual contrast distortion. Overall, the proposed method demonstrated that contrast aware adaptation of lightweight pre trained networks can yield a high performing, scalable solution for no reference contrast quality assessment suitable for real time and resource constrained applications.
- Abstract(参考訳): 画像のコントラストは視覚知覚の基本的な要素であり、全体像の質において重要な役割を担った。
しかし, NR IQAモデルでは, 様々な実環境下でのコントラスト歪みを正確に評価することが困難であった。
本研究では,3つの事前学習アーキテクチャ(EfficientNet B0,ResNet18,MobileNetV2)をカスタマイズ・微調整し,知覚的平均オピニオンスコア(Mean Opinion Score)と,知覚的コントラスト歪みを捉える能力に制限のある,ブラインドコントラスト品質評価のためのディープラーニングベースのフレームワークを提案する。
各モデルはコントラスト対応レグレッションヘッドで修正され、CID2013とCCID2014という2つのベンチマークデータセットのターゲットデータ拡張を使用して、合成および真正のコントラスト歪みを含む。
Pearson Linear correlation Coefficient と Spearman rank correlation Coefficient を用いて評価を行った。
これら3モデルのうち, PLCC = 0.9286, SRCC = 0.9178, CID2013では PLCC = 0.9581, SRCC = 0.9369 の3モデルで, 従来の手法を超越し, その他の深いベースラインを上回った。
これらの結果は,知覚的コントラスト歪みを捉えたモデルの有用性と有効性を強調した。
提案手法は, 実時間および資源制約のあるアプリケーションに適合する基準コントラスト品質評価を行なわないために, 軽量事前訓練ネットワークのコントラスト適応を考慮し, 高性能でスケーラブルなソリューションが得られることを示した。
関連論文リスト
- A Lightweight Ensemble-Based Face Image Quality Assessment Method with Correlation-Aware Loss [14.915614314380578]
顔画像品質評価(FIQA)は、顔認識および検証システムにおいて重要な役割を果たす。
本研究では,野生における顔画像の知覚的評価を目的とした,軽量で効率的なFIQA法を提案する。
論文 参考訳(メタデータ) (2025-09-12T10:13:38Z) - UniCBE: An Uniformity-driven Comparing Based Evaluation Framework with Unified Multi-Objective Optimization [19.673388630963807]
統一統一性駆動型CBEフレームワークUniCBEを提案する。
AlpacaEvalベンチマークでは、UniCBEは評価予算の17%以上を削減し、Pearsonと地上の真実との相関は0.995を超えている。
新しいモデルが継続的に導入されるシナリオでは、UniCBEは評価コストの50%以上を節約できる。
論文 参考訳(メタデータ) (2025-02-17T05:28:12Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Benchmark Generation Framework with Customizable Distortions for Image
Classifier Robustness [4.339574774938128]
本稿では,画像分類モデルのロバスト性を評価するために,逆ベンチマークを生成する新しいフレームワークを提案する。
当社のフレームワークでは,画像に最適な歪みの種類をカスタマイズすることが可能で,デプロイメントに関連する歪みに対処する上で有効である。
論文 参考訳(メタデータ) (2023-10-28T07:40:42Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Reduced Reference Perceptual Quality Model and Application to Rate
Control for 3D Point Cloud Compression [61.110938359555895]
レート歪み最適化では、ビットレートの制約を受ける再構成品質尺度を最大化してエンコーダ設定を決定する。
本稿では,V-PCC幾何および色量化パラメータを変数とする線形知覚品質モデルを提案する。
400個の圧縮された3D点雲による主観的品質試験の結果,提案モデルが平均評価値とよく相関していることが示唆された。
また、同じ目標ビットレートに対して、提案モデルに基づくレート歪みの最適化は、ポイント・ツー・ポイントの客観的な品質指標による徹底的な探索に基づくレート歪みの最適化よりも高い知覚品質を提供することを示した。
論文 参考訳(メタデータ) (2020-11-25T12:42:02Z) - Strategy for Boosting Pair Comparison and Improving Quality Assessment
Accuracy [29.849156371902943]
ペア比較(PC)は、差別性の観点からは絶対カテゴリー評価(ACR)に対して大きな利点がある。
本研究では,ペア比較データとACRデータをブリッジする汎用モデルを用いて,分散項を復元し,得られた情報がより完全であることを示す。
このようにして、提案手法はペア比較の精度を同等に向上するが、ACRほど高い包括性を達成できる。
論文 参考訳(メタデータ) (2020-10-01T13:05:09Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。