論文の概要: One-to-Multiple Clean-Label Image Camouflage (OmClic) based Backdoor Attack on Deep Learning
- arxiv url: http://arxiv.org/abs/2309.04036v2
- Date: Sun, 28 Jan 2024 05:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 16:20:50.055146
- Title: One-to-Multiple Clean-Label Image Camouflage (OmClic) based Backdoor Attack on Deep Learning
- Title(参考訳): 深層学習における一対多のクリーンラベル画像カモフラージュ(OmClic)に基づくバックドア攻撃
- Authors: Guohong Wang, Hua Ma, Yansong Gao, Alsharif Abuadbba, Zhi Zhang, Wei Kang, Said F. Al-Sarawib, Gongxuan Zhang, Derek Abbott,
- Abstract要約: 1つのアタック/ポゾン画像は、DLモデルの単一の入力サイズにのみ適合する。
本研究は,カモフラージュによる攻撃画像の構築を提案するが,同時に複数のDLモデルの入力サイズに適合できる。
OmClicを通じて、ユーザがどの共通の入力サイズを選択するかに関わらず、常にバックドアを埋め込むことができます。
- 参考スコア(独自算出の注目度): 15.118652632054392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image camouflage has been utilized to create clean-label poisoned images for implanting backdoor into a DL model. But there exists a crucial limitation that one attack/poisoned image can only fit a single input size of the DL model, which greatly increases its attack budget when attacking multiple commonly adopted input sizes of DL models. This work proposes to constructively craft an attack image through camouflaging but can fit multiple DL models' input sizes simultaneously, namely OmClic. Thus, through OmClic, we are able to always implant a backdoor regardless of which common input size is chosen by the user to train the DL model given the same attack budget (i.e., a fraction of the poisoning rate). With our camouflaging algorithm formulated as a multi-objective optimization, M=5 input sizes can be concurrently targeted with one attack image, which artifact is retained to be almost visually imperceptible at the same time. Extensive evaluations validate the proposed OmClic can reliably succeed in various settings using diverse types of images. Further experiments on OmClic based backdoor insertion to DL models show that high backdoor performances (i.e., attack success rate and clean data accuracy) are achievable no matter which common input size is randomly chosen by the user to train the model. So that the OmClic based backdoor attack budget is reduced by M$\times$ compared to the state-of-the-art camouflage based backdoor attack as a baseline. Significantly, the same set of OmClic based poisonous attack images is transferable to different model architectures for backdoor implant.
- Abstract(参考訳): 画像カモフラージュを用いて、バックドアをDLモデルに埋め込むためのクリーンラベルの有毒画像を作成する。
しかし、1つの攻撃/投薬画像がDLモデルの単一入力サイズにしか適合しないという決定的な制限があり、DLモデルの複数の広く採用されている入力サイズを攻撃する際に、その攻撃予算を大幅に増加させる。
本研究は,複数のDLモデルの入力サイズ,すなわちOmClicを同時に適合させることができる攻撃画像の構築を提案する。
したがって、OmClicを通じて、ユーザが同じ攻撃予算(毒殺率のごく一部)でDLモデルをトレーニングするために、共通の入力サイズを選択するかに関わらず、常にバックドアを移植することができる。
多目的最適化として定式化されたカモフラージュアルゴリズムにより、M=5の入力サイズを1つの攻撃画像で同時にターゲットすることができる。
提案したOmClicは、様々な種類の画像を用いて、様々な設定で確実に成功することができる。
OmClicをベースとしたDLモデルへのバックドア挿入実験により,ユーザがランダムに入力サイズを選択した場合でも,高いバックドア性能(攻撃成功率とクリーンデータ精度)が達成可能であることが示された。
したがって、OmClicベースのバックドア攻撃予算は、最先端のカモフラージュベースのバックドア攻撃をベースラインとして、M$\times$に削減される。
重要なことに、OmClicベースの有毒な攻撃画像のセットは、バックドアインプラントのための異なるモデルアーキテクチャに転送可能である。
関連論文リスト
- Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Object-oriented backdoor attack against image captioning [40.5688859498834]
画像分類タスクに対するバックドア攻撃は広く研究され、成功したことが証明されている。
本稿では,トレーニングデータから画像キャプションモデルへのバックドア攻撃について検討する。
本手法は,画像キャプティングモデルのバックドア攻撃に対する弱点を証明し,画像キャプティング分野におけるバックドア攻撃に対する防御意識を高めることを期待する。
論文 参考訳(メタデータ) (2024-01-05T01:52:13Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning [4.420110599382241]
FLバックドアの耐久性と良性画像と有毒画像の関係について検討した。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するために,コントラスト学習を利用する新たな攻撃であるChameleonを提案する。
論文 参考訳(メタデータ) (2023-04-25T16:11:10Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - Distilling Cognitive Backdoor Patterns within an Image [35.1754797302114]
本稿では, 画像中のバックドアパターンを抽出し, 検出する簡単な方法を提案する: emphCognitive Distillation (CD) について述べる。
抽出されたパターンは、クリーン/バックドア画像上のモデルの認知メカニズムを理解するのに役立つ。
我々は広範囲な実験を行い、CDが広範囲の高度なバックドア攻撃を確実に検出できることを示す。
論文 参考訳(メタデータ) (2023-01-26T02:38:37Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。