論文の概要: Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization
- arxiv url: http://arxiv.org/abs/2403.11397v1
- Date: Mon, 18 Mar 2024 01:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 17:07:30.141943
- Title: Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization
- Title(参考訳): 勾配ノルム規則化による非参照画像品質モデルに対する敵対的攻撃に対する防御
- Authors: Yujia Liu, Chenxi Yang, Dingquan Li, Jianhao Ding, Tingting Jiang,
- Abstract要約: No-Reference Image Quality Assessment (NR-IQA)モデルは、メディア業界において重要な役割を果たす。
これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明した。
そこで本研究では,小さな摂動に攻撃された場合の予測スコアの安定性を向上させるための防衛手法を提案する。
- 参考スコア(独自算出の注目度): 18.95463890154886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of No-Reference Image Quality Assessment (NR-IQA) is to estimate the quality score of an input image without additional information. NR-IQA models play a crucial role in the media industry, aiding in performance evaluation and optimization guidance. However, these models are found to be vulnerable to adversarial attacks, which introduce imperceptible perturbations to input images, resulting in significant changes in predicted scores. In this paper, we propose a defense method to improve the stability in predicted scores when attacked by small perturbations, thus enhancing the adversarial robustness of NR-IQA models. To be specific, we present theoretical evidence showing that the magnitude of score changes is related to the $\ell_1$ norm of the model's gradient with respect to the input image. Building upon this theoretical foundation, we propose a norm regularization training strategy aimed at reducing the $\ell_1$ norm of the gradient, thereby boosting the robustness of NR-IQA models. Experiments conducted on four NR-IQA baseline models demonstrate the effectiveness of our strategy in reducing score changes in the presence of adversarial attacks. To the best of our knowledge, this work marks the first attempt to defend against adversarial attacks on NR-IQA models. Our study offers valuable insights into the adversarial robustness of NR-IQA models and provides a foundation for future research in this area.
- Abstract(参考訳): 非参照画像品質評価(NR-IQA)の課題は、追加情報なしで入力画像の品質スコアを推定することである。
NR-IQAモデルはメディア業界において重要な役割を担い、性能評価と最適化のガイダンスを支援している。
しかし、これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明し、予測されたスコアに大きな変化をもたらす。
そこで本稿では, NR-IQAモデルの対角的ロバスト性を向上し, 予測スコアの安定性を向上する防衛法を提案する。
具体的には、入力画像に対するモデルの勾配の$\ell_1$ノルムとスコアの変化の大きさが関係していることを示す理論的証拠を示す。
この理論の基礎の上に、勾配の$\ell_1$ノルムを減らし、NR-IQAモデルのロバスト性を高めることを目的としたノルム正規化訓練戦略を提案する。
4つのNR-IQAベースラインモデルを用いて行った実験は、敵攻撃の有無によるスコア変化を減らすための戦略の有効性を示した。
我々の知る限りでは、この研究はNR-IQAモデルに対する敵攻撃を防ごうとする最初の試みである。
本研究は,NR-IQAモデルの対角的ロバスト性に関する貴重な知見を提供し,今後の研究基盤を提供する。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Causal Perception Inspired Representation Learning for Trustworthy Image Quality Assessment [2.290956583394892]
我々は、因果知覚にインスパイアされた表現学習(CPRL)を通して信頼できるIQAモデルを構築することを提案する。
CPRLは主観的品質ラベルの因果関係として機能し、それは知覚できない逆境の摂動に不変である。
4つのベンチマークデータベース上での実験により,提案手法は,最先端の敵防衛法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-30T13:55:30Z) - Beyond Score Changes: Adversarial Attack on No-Reference Image Quality Assessment from Two Perspectives [15.575900555433863]
本稿では,画像集合内の相関関係を乱し,個々の画像の変化をスコアする相関エラーに基づく新たな攻撃フレームワークを提案する。
我々の研究は、Spearman's Rank-Order correlation Coefficient (SROCC)やMean Squared Error (MSE)のような予測エラー関連指標のようなランキング関連相関指標に焦点を当てている。
論文 参考訳(メタデータ) (2024-04-20T05:24:06Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - Exploring Vulnerabilities of No-Reference Image Quality Assessment Models: A Query-Based Black-Box Method [15.266845355276317]
No-Reference Image Quality Assessmentは、人間の知覚と一致した画像品質スコアを予測することを目的としている。
NR-IQAの現在の攻撃方法はNR-IQAモデルの勾配に大きく依存している。
NR-IQA法に対するクエリベースのブラックボックス攻撃の先駆的手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T15:30:19Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。