論文の概要: Robust and Transferable Backdoor Attacks Against Deep Image Compression With Selective Frequency Prior
- arxiv url: http://arxiv.org/abs/2412.01646v1
- Date: Mon, 02 Dec 2024 15:58:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:16.721831
- Title: Robust and Transferable Backdoor Attacks Against Deep Image Compression With Selective Frequency Prior
- Title(参考訳): 選択周波数による深部画像圧縮に対するロバストかつ移動可能なバックドアアタック
- Authors: Yi Yu, Yufei Wang, Wenhan Yang, Lanqing Guo, Shijian Lu, Ling-Yu Duan, Yap-Peng Tan, Alex C. Kot,
- Abstract要約: 本稿では,学習画像の圧縮モデルに複数のトリガを付加したバックドアアタックを起動するための新しい周波数ベースのトリガインジェクションモデルを提案する。
1) 圧縮品質をビットレートと再現精度で劣化させる,2) 顔認識やセマンティックセグメンテーションといったタスク駆動型対策を目標とする,様々なシナリオに適した攻撃目標を設計する。
実験の結果, トリガーインジェクションモデルと, エンコーダパラメータの微調整を組み合わせることで, 複数のバックドアとトリガーを1つの圧縮モデルに注入することができた。
- 参考スコア(独自算出の注目度): 118.92747171905727
- License:
- Abstract: Recent advancements in deep learning-based compression techniques have surpassed traditional methods. However, deep neural networks remain vulnerable to backdoor attacks, where pre-defined triggers induce malicious behaviors. This paper introduces a novel frequency-based trigger injection model for launching backdoor attacks with multiple triggers on learned image compression models. Inspired by the widely used DCT in compression codecs, triggers are embedded in the DCT domain. We design attack objectives tailored to diverse scenarios, including: 1) degrading compression quality in terms of bit-rate and reconstruction accuracy; 2) targeting task-driven measures like face recognition and semantic segmentation. To improve training efficiency, we propose a dynamic loss function that balances loss terms with fewer hyper-parameters, optimizing attack objectives effectively. For advanced scenarios, we evaluate the attack's resistance to defensive preprocessing and propose a two-stage training schedule with robust frequency selection to enhance resilience. To improve cross-model and cross-domain transferability for downstream tasks, we adjust the classification boundary in the attack loss during training. Experiments show that our trigger injection models, combined with minor modifications to encoder parameters, successfully inject multiple backdoors and their triggers into a single compression model, demonstrating strong performance and versatility. (*Due to the notification of arXiv "The Abstract field cannot be longer than 1,920 characters", the appeared Abstract is shortened. For the full Abstract, please download the Article.)
- Abstract(参考訳): 近年のディープラーニングベースの圧縮技術は,従来の手法を超越している。
しかし、深いニューラルネットワークは、事前に定義されたトリガーが悪意ある振る舞いを引き起こすバックドア攻撃に弱いままである。
本稿では,学習画像の圧縮モデルに複数のトリガを付加したバックドアアタックを起動するための新しい周波数ベースのトリガインジェクションモデルを提案する。
圧縮コーデックで広く使われているDCTにインスパイアされたトリガーは、DCTドメインに埋め込まれる。
さまざまなシナリオに適した攻撃目標を設計します。
1) 圧縮品質をビットレート及び再構成精度で劣化させる。
2) 顔認識やセマンティックセグメンテーションといったタスク駆動型尺度を目標とする。
トレーニング効率を向上させるために,より少ないハイパーパラメータで損失項のバランスを保ち,攻撃目標を効果的に最適化する動的損失関数を提案する。
先進的なシナリオでは、防御前処理に対する攻撃の抵抗を評価し、弾力性を高めるために頑健な周波数選択を伴う2段階の訓練スケジュールを提案する。
下流タスクにおけるクロスモデルとクロスドメイン転送性を改善するため、トレーニング中の攻撃損失の分類境界を調整した。
実験により, トリガーインジェクションモデルと, エンコーダパラメータの小さな修正を加えて, 複数のバックドアとそのトリガーを1つの圧縮モデルに注入し, 高い性能と汎用性を実証した。
(※「抽象フィールドは1,920文字以上はならない」というarXivの通知により、出現した抽象文字を短縮する。全要約については、本項をダウンロードしてください。)
関連論文リスト
- Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robustness and Transferability of Universal Attacks on Compressed Models [3.187381965457262]
エッジデバイスにDeep Neural Networks(DNN)を効率的にデプロイするには、プルーニングや量子化などのニューラルネットワーク圧縮方法が非常に効果的です。
特に、UAP(Universal Adversarial Perturbations)は、敵対的攻撃の強力なクラスである。
いくつかのシナリオでは、量子化は勾配マスキングを生じさせ、誤ったセキュリティ感覚を与える。
論文 参考訳(メタデータ) (2020-12-10T23:40:23Z) - OGAN: Disrupting Deepfakes with an Adversarial Attack that Survives
Training [0.0]
我々は,対面型オートエンコーダを妨害する敵攻撃のクラスを導入する。
我々は,Oscillating GAN(OGAN)攻撃を提案する。
これらの結果は、広範囲のドメインに適用可能な、訓練耐性の敵攻撃の存在を示すものである。
論文 参考訳(メタデータ) (2020-06-17T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。