論文の概要: Launching a Robust Backdoor Attack under Capability Constrained
Scenarios
- arxiv url: http://arxiv.org/abs/2304.10985v1
- Date: Fri, 21 Apr 2023 14:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 14:34:41.426690
- Title: Launching a Robust Backdoor Attack under Capability Constrained
Scenarios
- Title(参考訳): 制約付きシナリオによるロバストバックドアアタックの起動
- Authors: Ming Yi, Yixiao Xu, Kangyi Ding, Mingyong Yin, Xiaolei Liu
- Abstract要約: ディープラーニングモデルは、透明性の欠如により、バックドア攻撃に対して脆弱である。
本研究では,ブラックボックスのバックドア攻撃を能力制約内で実施することを検討する。
本手法は,ブラックボックスのシナリオにおいて高い攻撃成功率を実現し,最先端のバックドア防御を回避する。
- 参考スコア(独自算出の注目度): 2.555905350183141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep neural networks continue to be used in critical domains, concerns
over their security have emerged. Deep learning models are vulnerable to
backdoor attacks due to the lack of transparency. A poisoned backdoor model may
perform normally in routine environments, but exhibit malicious behavior when
the input contains a trigger. Current research on backdoor attacks focuses on
improving the stealthiness of triggers, and most approaches require strong
attacker capabilities, such as knowledge of the model structure or control over
the training process. These attacks are impractical since in most cases the
attacker's capabilities are limited. Additionally, the issue of model
robustness has not received adequate attention. For instance, model
distillation is commonly used to streamline model size as the number of
parameters grows exponentially, and most of previous backdoor attacks failed
after model distillation; the image augmentation operations can destroy the
trigger and thus disable the backdoor. This study explores the implementation
of black-box backdoor attacks within capability constraints. An attacker can
carry out such attacks by acting as either an image annotator or an image
provider, without involvement in the training process or knowledge of the
target model's structure. Through the design of a backdoor trigger, our attack
remains effective after model distillation and image augmentation, making it
more threatening and practical. Our experimental results demonstrate that our
method achieves a high attack success rate in black-box scenarios and evades
state-of-the-art backdoor defenses.
- Abstract(参考訳): 深いニューラルネットワークが重要なドメインで使われ続けているため、セキュリティに対する懸念が浮上している。
ディープラーニングモデルは、透明性の欠如によるバックドア攻撃に対して脆弱である。
有害なバックドアモデルは通常、通常の環境で実行されるが、入力にトリガーが含まれていると悪意のある振る舞いを示す。
バックドア攻撃に関する現在の研究はトリガーのステルスネスの改善に焦点を当てており、ほとんどのアプローチではモデル構造やトレーニングプロセスの制御といった強力な攻撃能力を必要としている。
これらの攻撃は、ほとんどの場合、攻撃者の能力に制限があるため、実用的でない。
さらに、モデルロバスト性の問題には十分な注意が払われていない。
例えば、モデル蒸留は、パラメータの数が指数関数的に増加するにつれてモデルサイズを効率化するために一般的に使われ、以前のバックドア攻撃のほとんどはモデル蒸留後に失敗した。
本研究では,ブラックボックスのバックドア攻撃を能力制約内で実施することを検討する。
攻撃者は、訓練過程や対象モデルの構造に関する知識に関わらず、画像注釈器または画像提供者として行動することで、そのような攻撃を行うことができる。
バックドアトリガーの設計を通じて,モデル蒸留と画像増量後の攻撃は有効であり,より脅威的で実用的である。
実験により,ブラックボックスシナリオにおける攻撃成功率が向上し,最先端のバックドア防御を回避することができた。
関連論文リスト
- Hijacking Attacks against Neural Networks by Analyzing Training Data [21.277867143827812]
CleanSheetは、新しいモデルハイジャック攻撃で、モデルをトレーニングする相手を必要とせずに、バックドア攻撃のハイパフォーマンスを得る。
CleanSheetはトレーニングデータから発生したタンパーの脆弱性を利用する。
CIFAR-100では平均的な攻撃成功率(ASR)が97.5%、GTSRBでは92.4%である。
論文 参考訳(メタデータ) (2024-01-18T05:48:56Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - IMBERT: Making BERT Immune to Insertion-based Backdoor Attacks [45.81957796169348]
バックドア攻撃は、機械学習モデルに対する汚いセキュリティ脅威だ。
IMBERTは、被害者モデルから得られた勾配または自己注意スコアを用いて、バックドア攻撃に対する自己防衛を行う。
我々の実証研究は、IMBERTが挿入されたトリガーの98.5%を効果的に識別できることを示した。
論文 参考訳(メタデータ) (2023-05-25T22:08:57Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - The "Beatrix'' Resurrections: Robust Backdoor Detection via Gram
Matrices [24.173099352455083]
Deep Neural Networks(DNN)は、トレーニング中のバックドア攻撃の影響を受けやすい。
本稿では,Beatrix(Gram行列によるバックドア検出)という新しい手法を提案する。
提案手法は動的バックドア検出においてF1スコア91.1%を達成し,36.9%に到達した。
論文 参考訳(メタデータ) (2022-09-23T16:47:19Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。