論文の概要: Backdoor Attacks against No-Reference Image Quality Assessment Models via A Scalable Trigger
- arxiv url: http://arxiv.org/abs/2412.07277v1
- Date: Tue, 10 Dec 2024 08:07:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:50.089742
- Title: Backdoor Attacks against No-Reference Image Quality Assessment Models via A Scalable Trigger
- Title(参考訳): スケーラブルトリガーによる非参照画像品質評価モデルに対するバックドア攻撃
- Authors: Yi Yu, Song Xia, Xun Lin, Wenhan Yang, Shijian Lu, Yap-peng Tan, Alex Kot,
- Abstract要約: No-Reference Image Quality Assessment (NR-IQA) はコンピュータビジョンシステムの評価と最適化において重要な役割を果たしている。
近年の研究では、NR-IQAモデルが敵攻撃の影響を受けやすいことが示されている。
NR-IQA(BAIQA)に対する新規中毒性バックドアアタックを報告した。
- 参考スコア(独自算出の注目度): 76.36315347198195
- License:
- Abstract: No-Reference Image Quality Assessment (NR-IQA), responsible for assessing the quality of a single input image without using any reference, plays a critical role in evaluating and optimizing computer vision systems, e.g., low-light enhancement. Recent research indicates that NR-IQA models are susceptible to adversarial attacks, which can significantly alter predicted scores with visually imperceptible perturbations. Despite revealing vulnerabilities, these attack methods have limitations, including high computational demands, untargeted manipulation, limited practical utility in white-box scenarios, and reduced effectiveness in black-box scenarios. To address these challenges, we shift our focus to another significant threat and present a novel poisoning-based backdoor attack against NR-IQA (BAIQA), allowing the attacker to manipulate the IQA model's output to any desired target value by simply adjusting a scaling coefficient $\alpha$ for the trigger. We propose to inject the trigger in the discrete cosine transform (DCT) domain to improve the local invariance of the trigger for countering trigger diminishment in NR-IQA models due to widely adopted data augmentations. Furthermore, the universal adversarial perturbations (UAP) in the DCT space are designed as the trigger, to increase IQA model susceptibility to manipulation and improve attack effectiveness. In addition to the heuristic method for poison-label BAIQA (P-BAIQA), we explore the design of clean-label BAIQA (C-BAIQA), focusing on $\alpha$ sampling and image data refinement, driven by theoretical insights we reveal. Extensive experiments on diverse datasets and various NR-IQA models demonstrate the effectiveness of our attacks. Code will be released at https://github.com/yuyi-sd/BAIQA.
- Abstract(参考訳): No-Reference Image Quality Assessment (NR-IQA) は、単一の入力画像の品質を基準を使わずに評価する役割を持ち、コンピュータビジョンシステムの評価と最適化において重要な役割を果たしている。
近年の研究では、NR-IQAモデルが敵対的攻撃の影響を受けやすいことが示されており、予測されたスコアを視覚的に知覚できない摂動で著しく変化させることができる。
脆弱性が明らかにされているにもかかわらず、これらの攻撃手法には、高い計算要求、ターゲットのない操作、ホワイトボックスシナリオでの実用性制限、ブラックボックスシナリオでの有効性削減など、制限がある。
これらの課題に対処するため、我々は別の重要な脅威に焦点を移し、NR-IQA(BAIQA)に対する新たな毒素ベースのバックドア攻撃を提示し、攻撃者が任意の目標値に対してIQAモデルの出力を操作できるようにし、トリガーのスケーリング係数$\alpha$を単に調整する。
本稿では,離散コサイン変換(DCT)領域にトリガを注入し,広く採用されているデータ拡張によるNR-IQAモデルにおけるトリガの局所的不変性を改善することを提案する。
さらに、DCT空間における普遍対向摂動(UAP)をトリガーとして設計し、IQAモデルの操作性を高め、攻撃効率を向上させる。
毒性標識BAIQA (P-BAIQA) のヒューリスティックな手法に加えて, 理論的な洞察を駆使した$\alpha$サンプリングと画像データ精錬に着目したクリーンラベルBAIQA (C-BAIQA) の設計について検討する。
多様なデータセットとNR-IQAモデルに対する大規模な実験は、我々の攻撃の有効性を実証している。
コードはhttps://github.com/yuyi-sd/BAIQA.comでリリースされる。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Causal Perception Inspired Representation Learning for Trustworthy Image Quality Assessment [2.290956583394892]
我々は、因果知覚にインスパイアされた表現学習(CPRL)を通して信頼できるIQAモデルを構築することを提案する。
CPRLは主観的品質ラベルの因果関係として機能し、それは知覚できない逆境の摂動に不変である。
4つのベンチマークデータベース上での実験により,提案手法は,最先端の敵防衛法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-30T13:55:30Z) - Beyond Score Changes: Adversarial Attack on No-Reference Image Quality Assessment from Two Perspectives [15.575900555433863]
本稿では,画像集合内の相関関係を乱し,個々の画像の変化をスコアする相関エラーに基づく新たな攻撃フレームワークを提案する。
我々の研究は、Spearman's Rank-Order correlation Coefficient (SROCC)やMean Squared Error (MSE)のような予測エラー関連指標のようなランキング関連相関指標に焦点を当てている。
論文 参考訳(メタデータ) (2024-04-20T05:24:06Z) - Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization [18.95463890154886]
No-Reference Image Quality Assessment (NR-IQA)モデルは、メディア業界において重要な役割を果たす。
これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明した。
そこで本研究では,小さな摂動に攻撃された場合の予測スコアの安定性を向上させるための防衛手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T01:11:53Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - Exploring Vulnerabilities of No-Reference Image Quality Assessment Models: A Query-Based Black-Box Method [15.266845355276317]
No-Reference Image Quality Assessmentは、人間の知覚と一致した画像品質スコアを予測することを目的としている。
NR-IQAの現在の攻撃方法はNR-IQAモデルの勾配に大きく依存している。
NR-IQA法に対するクエリベースのブラックボックス攻撃の先駆的手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T15:30:19Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z) - Adversarial Attack on Deep Product Quantization Network for Image
Retrieval [74.85736968193879]
近年,高速画像検索においてDPQN (Deep Product Quantization Network) が注目されている。
近年の研究では、ディープニューラルネットワーク(DNN)は、小さく、悪意のある設計の摂動によって入力に弱いことが示されている。
本稿では,製品量子化に基づく検索システムに対して,製品量子化逆生成(PQ-AG)を提案する。
論文 参考訳(メタデータ) (2020-02-26T09:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。