論文の概要: Black-box Adversarial Attacks Against Image Quality Assessment Models
- arxiv url: http://arxiv.org/abs/2402.17533v1
- Date: Tue, 27 Feb 2024 14:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:06:52.481446
- Title: Black-box Adversarial Attacks Against Image Quality Assessment Models
- Title(参考訳): 画像品質評価モデルに対するブラックボックス広告攻撃
- Authors: Yu Ran, Ao-Xiang Zhang, Mingjie Li, Weixuan Tang, Yuan-Gen Wang
- Abstract要約: No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
- 参考スコア(独自算出の注目度): 16.11900427447442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of No-Reference Image Quality Assessment (NR-IQA) is to predict the
perceptual quality of an image in line with its subjective evaluation. To put
the NR-IQA models into practice, it is essential to study their potential
loopholes for model refinement. This paper makes the first attempt to explore
the black-box adversarial attacks on NR-IQA models. Specifically, we first
formulate the attack problem as maximizing the deviation between the estimated
quality scores of original and perturbed images, while restricting the
perturbed image distortions for visual quality preservation. Under such
formulation, we then design a Bi-directional loss function to mislead the
estimated quality scores of adversarial examples towards an opposite direction
with maximum deviation. On this basis, we finally develop an efficient and
effective black-box attack method against NR-IQA models. Extensive experiments
reveal that all the evaluated NR-IQA models are vulnerable to the proposed
attack method. And the generated perturbations are not transferable, enabling
them to serve the investigation of specialities of disparate IQA models.
- Abstract(参考訳): No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
NR-IQAモデルを実践するためには、モデル改良のための潜在的な抜け穴を研究することが不可欠である。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
具体的には、まず、視覚品質保存のための摂動画像歪みを制限しつつ、原画像と摂動画像の推定品質スコアの偏差を最大化する攻撃問題を定式化する。
このような定式化の下では,最大偏差のある反対方向に向けて,敵例の推定品質スコアを誤解させる双方向損失関数を設計する。
そこで我々はNR-IQAモデルに対する効率的かつ効果的なブラックボックス攻撃法を開発した。
実験の結果,評価されたNR-IQAモデルはすべて攻撃法に弱いことがわかった。
生成された摂動は伝達不可能であり、異なるIQAモデルの特殊性の調査に役立てることができる。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Causal Perception Inspired Representation Learning for Trustworthy Image Quality Assessment [2.290956583394892]
我々は、因果知覚にインスパイアされた表現学習(CPRL)を通して信頼できるIQAモデルを構築することを提案する。
CPRLは主観的品質ラベルの因果関係として機能し、それは知覚できない逆境の摂動に不変である。
4つのベンチマークデータベース上での実験により,提案手法は,最先端の敵防衛法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-30T13:55:30Z) - Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization [18.95463890154886]
No-Reference Image Quality Assessment (NR-IQA)モデルは、メディア業界において重要な役割を果たす。
これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明した。
そこで本研究では,小さな摂動に攻撃された場合の予測スコアの安定性を向上させるための防衛手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T01:11:53Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Exploring Vulnerabilities of No-Reference Image Quality Assessment Models: A Query-Based Black-Box Method [15.266845355276317]
No-Reference Image Quality Assessmentは、人間の知覚と一致した画像品質スコアを予測することを目的としている。
NR-IQAの現在の攻撃方法はNR-IQAモデルの勾配に大きく依存している。
NR-IQA法に対するクエリベースのブラックボックス攻撃の先駆的手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T15:30:19Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。