論文の概要: FS-IQA: Certified Feature Smoothing for Robust Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2508.05516v1
- Date: Thu, 07 Aug 2025 15:47:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.940568
- Title: FS-IQA: Certified Feature Smoothing for Robust Image Quality Assessment
- Title(参考訳): FS-IQA:ロバスト画像品質評価のための認証機能スムース
- Authors: Ekaterina Shumitskaya, Dmitriy Vatolin, Anastasia Antsiferova,
- Abstract要約: 本稿では,画像品質評価(IQA)モデルに対する新しい認証防御手法を提案する。
入力空間ではなく特徴空間に雑音を印加したランダムな平滑化に基づいている。
その結果,主観的品質スコアとの相関性は最大30.9%向上した。
- 参考スコア(独自算出の注目度): 4.135467749401761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel certified defense method for Image Quality Assessment (IQA) models based on randomized smoothing with noise applied in the feature space rather than the input space. Unlike prior approaches that inject Gaussian noise directly into input images, often degrading visual quality, our method preserves image fidelity while providing robustness guarantees. To formally connect noise levels in the feature space with corresponding input-space perturbations, we analyze the maximum singular value of the backbone network's Jacobian. Our approach supports both full-reference (FR) and no-reference (NR) IQA models without requiring any architectural modifications, suitable for various scenarios. It is also computationally efficient, requiring a single backbone forward pass per image. Compared to previous methods, it reduces inference time by 99.5% without certification and by 20.6% when certification is applied. We validate our method with extensive experiments on two benchmark datasets, involving six widely-used FR and NR IQA models and comparisons against five state-of-the-art certified defenses. Our results demonstrate consistent improvements in correlation with subjective quality scores by up to 30.9%.
- Abstract(参考訳): 本稿では,入力空間ではなく特徴空間に雑音を印加したランダムな平滑化に基づく画像品質評価(IQA)モデルに対する新しい認証防御手法を提案する。
ガウスノイズを直接入力画像に注入する従来の手法とは異なり、視覚的品質を劣化させることが多い。
特徴空間内の雑音レベルと対応する入力空間の摂動を正式に結合するために、バックボーンネットワークのジャコビアンの最大特異値を分析する。
提案手法は, 各種シナリオに適したアーキテクチャ変更を必要とせず, フル参照(FR)モデルとノン参照(NR)IQAモデルの両方をサポートする。
また、計算効率も良く、画像ごとに単一のバックボーンフォワードパスを必要とする。
従来の手法と比較して、認証無しで推論時間を99.5%削減し、認定が適用されると20.6%削減する。
提案手法は,広範に使用されているFRとNR IQAの6つのモデルと,最先端の5つの防御技術との比較を含む,2つのベンチマークデータセットに対する広範な実験により検証した。
その結果,主観的品質スコアとの相関性は最大30.9%向上した。
関連論文リスト
- Subjective Visual Quality Assessment for High-Fidelity Learning-Based Image Compression [2.296138318128071]
JPEG AIC-3 手法を用いて,JPEG AI 圧縮画像の包括的主観的品質評価を行う。
強化された3重項比較と平易な3重項比較に基づく統一モデルを用いて,JNDに基づく品質尺度を再構築した。
CVVDPの指標は全体の最高性能を達成したが、CVDPを含むほとんどの指標はJPEG AI圧縮画像の品質予測において過度に楽観的であった。
論文 参考訳(メタデータ) (2025-04-07T15:16:58Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [73.6767681305851]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - How Quality Affects Deep Neural Networks in Fine-Grained Image Classification [0.799543372823325]
粒度分類システムの性能を高めるために,非参照画像品質評価(NRIQA)誘導カットオフポイント選択(CPS)戦略を提案する。
最も一般的に採用されている3つのイメージ拡張設定 -- トリミング、回転、ぼやけた -- をエントリポイントとしています。
具体的には、これらの方法によって得られるカットオフポイントは、多数決によって集約され、画像サブセット選択のプロセスが通知される。
論文 参考訳(メタデータ) (2024-05-09T12:59:11Z) - Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Feature Denoising Diffusion Model for Blind Image Quality Assessment [58.5808754919597]
Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
論文 参考訳(メタデータ) (2024-01-22T13:38:24Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - DifFIQA: Face Image Quality Assessment Using Denoising Diffusion
Probabilistic Models [1.217503190366097]
顔画像品質評価(FIQA)技術は、これらの性能劣化を軽減することを目的としている。
拡散確率モデル(DDPM)に基づく強力な新しいFIQA手法DifFIQAを提案する。
拡散に基づく摂動は計算コストが高いため、DifFIQA(R)と呼ばれる回帰ベースの品質予測器にDifFIQAで符号化された知識を蒸留する。
論文 参考訳(メタデータ) (2023-05-09T21:03:13Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。