論文の概要: RSBA: Robust Statistical Backdoor Attack under Privilege-Constrained
Scenarios
- arxiv url: http://arxiv.org/abs/2304.10985v2
- Date: Mon, 11 Mar 2024 17:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 17:40:54.827282
- Title: RSBA: Robust Statistical Backdoor Attack under Privilege-Constrained
Scenarios
- Title(参考訳): rsba: 特権制約条件下でのロバストな統計バックドア攻撃
- Authors: Xiaolei Liu, Ming Yi, Kangyi Ding, Bangzhou Xin, Yixiao Xu, Li Yan,
Chao Shen
- Abstract要約: 学習ベースのシステムは、バックドア攻撃に弱いことが示されている。
本稿では,RSBA(Robust Statistical Backdoor Attack under Privilege-Constrained scenarios)を紹介する。
RSBAの画像増倍とモデル蒸留に対するロバスト性を実験的に理論的に実証した。
- 参考スコア(独自算出の注目度): 9.38518049643553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based systems have been demonstrated to be vulnerable to backdoor
attacks, wherein malicious users manipulate model performance by injecting
backdoors into the target model and activating them with specific triggers.
Previous backdoor attack methods primarily focused on two key metrics: attack
success rate and stealthiness. However, these methods often necessitate
significant privileges over the target model, such as control over the training
process, making them challenging to implement in real-world scenarios.
Moreover, the robustness of existing backdoor attacks is not guaranteed, as
they prove sensitive to defenses such as image augmentations and model
distillation. In this paper, we address these two limitations and introduce
RSBA (Robust Statistical Backdoor Attack under Privilege-constrained
Scenarios). The key insight of RSBA is that statistical features can naturally
divide images into different groups, offering a potential implementation of
triggers. This type of trigger is more robust than manually designed ones, as
it is widely distributed in normal images. By leveraging these statistical
triggers, RSBA enables attackers to conduct black-box attacks by solely
poisoning the labels or the images. We empirically and theoretically
demonstrate the robustness of RSBA against image augmentations and model
distillation. Experimental results show that RSBA achieves a 99.83\% attack
success rate in black-box scenarios. Remarkably, it maintains a high success
rate even after model distillation, where attackers lack access to the training
dataset of the student model (1.39\% success rate for baseline methods on
average).
- Abstract(参考訳): 学習ベースのシステムはバックドア攻撃に弱いことが実証されており、悪意のあるユーザがターゲットモデルにバックドアを注入し、特定のトリガーでアクティベートすることで、モデルのパフォーマンスを操作できる。
以前のバックドア攻撃手法は、主に攻撃成功率とステルスネスの2つの重要な指標に焦点を当てていた。
しかしながら、これらの手法は、トレーニングプロセスの制御など、ターゲットモデルに対する重要な特権を必要とすることが多いため、現実のシナリオでは実装が困難になる。
さらに, 既存のバックドア攻撃の堅牢性は, 画像強化やモデル蒸留などの防御に敏感であることから保証されていない。
本稿では,これら2つの制限に対処し,RSBA(Robust Statistical Backdoor Attack under Privilege-Constrained Scenarios)を導入する。
RSBAのキーとなる洞察は、統計的特徴が自然に画像を異なるグループに分割し、トリガーの潜在的な実装を提供することである。
この種のトリガーは手動で設計したものよりも堅牢であり、通常の画像に広く分布している。
これらの統計トリガーを利用することで、rsbaはラベルや画像だけを毒殺することで攻撃者がブラックボックス攻撃を行えるようにする。
RSBAの画像増倍とモデル蒸留に対するロバスト性を実験的に理論的に実証した。
実験の結果、RSBAはブラックボックスのシナリオで99.83\%の攻撃成功率を達成した。
注目すべきは、モデル蒸留後も高い成功率を維持しており、攻撃者は学生モデルのトレーニングデータセットにアクセスできない(平均して1.39 %の成功率)。
関連論文リスト
- Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - DTA: Distribution Transform-based Attack for Query-Limited Scenario [11.874670564015789]
敵の例を生成する際、従来のブラックボックス攻撃法は攻撃対象モデルからの十分なフィードバックに依存している。
本稿では,攻撃された動作が限られた数のクエリを実行可能であることをシミュレートするハードラベル攻撃を提案する。
提案したアイデアの有効性とDTAの最先端性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-12-12T13:21:03Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - IMBERT: Making BERT Immune to Insertion-based Backdoor Attacks [45.81957796169348]
バックドア攻撃は、機械学習モデルに対する汚いセキュリティ脅威だ。
IMBERTは、被害者モデルから得られた勾配または自己注意スコアを用いて、バックドア攻撃に対する自己防衛を行う。
我々の実証研究は、IMBERTが挿入されたトリガーの98.5%を効果的に識別できることを示した。
論文 参考訳(メタデータ) (2023-05-25T22:08:57Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - The "Beatrix'' Resurrections: Robust Backdoor Detection via Gram
Matrices [24.173099352455083]
Deep Neural Networks(DNN)は、トレーニング中のバックドア攻撃の影響を受けやすい。
本稿では,Beatrix(Gram行列によるバックドア検出)という新しい手法を提案する。
提案手法は動的バックドア検出においてF1スコア91.1%を達成し,36.9%に到達した。
論文 参考訳(メタデータ) (2022-09-23T16:47:19Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。