論文の概要: Efficient Backdoor Attacks for Deep Neural Networks in Real-world
Scenarios
- arxiv url: http://arxiv.org/abs/2306.08386v1
- Date: Wed, 14 Jun 2023 09:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:27:11.288522
- Title: Efficient Backdoor Attacks for Deep Neural Networks in Real-world
Scenarios
- Title(参考訳): 実世界シナリオにおけるディープニューラルネットワークの効率的なバックドア攻撃
- Authors: Hong Sun, Ziqiang Li, Pengfei Xia, Heng Li, Beihao Xia, Yi Wu, Bin Li
- Abstract要約: ディープニューラルネットワーク(DNN)は大量のトレーニングデータに依存しており、悪意のある攻撃者がデータを悪用して汚染する機会となっている。
本稿では、被害者が複数のソースからデータを収集し、攻撃者が完全な訓練データにアクセスできないような、より現実的な攻撃シナリオを提案する。
本稿では,CLIP(Contrastive Language- Image Pre-Training)モデルを利用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 17.96339494812858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent deep neural networks (DNNs) have come to rely on vast amounts of
training data, providing an opportunity for malicious attackers to exploit and
contaminate the data to carry out backdoor attacks. These attacks significantly
undermine the reliability of DNNs. However, existing backdoor attack methods
make unrealistic assumptions, assuming that all training data comes from a
single source and that attackers have full access to the training data. In this
paper, we address this limitation by introducing a more realistic attack
scenario where victims collect data from multiple sources, and attackers cannot
access the complete training data. We refer to this scenario as
data-constrained backdoor attacks. In such cases, previous attack methods
suffer from severe efficiency degradation due to the entanglement between
benign and poisoning features during the backdoor injection process.
To tackle this problem, we propose a novel approach that leverages the
pre-trained Contrastive Language-Image Pre-Training (CLIP) model. We introduce
three CLIP-based technologies from two distinct streams: Clean Feature
Suppression, which aims to suppress the influence of clean features to enhance
the prominence of poisoning features, and Poisoning Feature Augmentation, which
focuses on augmenting the presence and impact of poisoning features to
effectively manipulate the model's behavior.
To evaluate the effectiveness, harmlessness to benign accuracy, and
stealthiness of our method, we conduct extensive experiments on 3 target
models, 3 datasets, and over 15 different settings. The results demonstrate
remarkable improvements, with some settings achieving over 100% improvement
compared to existing attacks in data-constrained scenarios. Our research
contributes to addressing the limitations of existing methods and provides a
practical and effective solution for data-constrained backdoor attacks.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)は、大量のトレーニングデータに依存しており、悪意のある攻撃者がデータを悪用して汚染し、バックドア攻撃を行う機会となっている。
これらの攻撃はDNNの信頼性を著しく損なう。
しかし、既存のバックドア攻撃手法は、すべてのトレーニングデータが単一のソースから来ており、攻撃者がトレーニングデータへの完全なアクセスを前提として、非現実的な仮定をする。
本稿では、被害者が複数のソースからデータを収集し、攻撃者が完全なトレーニングデータにアクセスできないような、より現実的な攻撃シナリオを導入することで、この制限に対処する。
このシナリオを、データ制約されたバックドア攻撃と呼んでいる。
このような場合、以前の攻撃方法は、バックドア注入の過程で良性と毒物の特徴が絡み合うことによる効率の低下に苦しむ。
そこで本研究では,CLIP(Contrastive Language- Image Pre-Training)モデルを用いた新しい手法を提案する。
そこで,本研究では,清潔な特徴の影響を抑制することを目的とした,清潔な特徴抑制技術と,モデルの動作を効果的に操作するための中毒機能の存在と影響を増強することに焦点を当てた中毒機能増強技術という,2つの異なる流れからのクリップベースの技術を紹介する。
本手法の有効性, 正確性に対する無害性, およびステルスネスを評価するため, 3つのターゲットモデル, 3つのデータセット, 15以上の異なる設定について広範な実験を行った。
その結果、データ制約のあるシナリオにおける既存の攻撃と比較して、いくつかの設定で100%以上の改善が達成された。
本研究は,既存の手法の限界に対処し,データ制約されたバックドア攻撃に対する実用的で効果的な解決策を提供する。
関連論文リスト
- DarkFed: A Data-Free Backdoor Attack in Federated Learning [12.598402035474718]
フェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいことが示されている。
シャドウデータセットを用いたバックドアFLに対するデータフリーアプローチを提案する。
私たちの調査では、シャドウデータセットとメインタスクデータセットの間に大きなギャップがある場合でも、印象的なアタックパフォーマンスを実現することが可能であることを明らかにしています。
論文 参考訳(メタデータ) (2024-05-06T09:21:15Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Textual Backdoor Attacks Can Be More Harmful via Two Simple Tricks [58.0225587881455]
本稿では,既存のテキストバックドア攻撃をより有害にするための2つの簡単な手法を見出す。
最初のトリックは、被害者モデルのトレーニング中に毒や清潔なデータを識別するための追加のトレーニングタスクを追加することです。
2つ目は、汚染データに対応する元のクリーンデータを削除するのではなく、すべてのクリーンなトレーニングデータを使用することである。
論文 参考訳(メタデータ) (2021-10-15T17:58:46Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - DeepSweep: An Evaluation Framework for Mitigating DNN Backdoor Attacks
using Data Augmentation [16.455154794893055]
サードパーティプロバイダは、有毒なサンプルをデータセットに注入したり、Deep Learningモデルにバックドアを埋め込むことができる。
異なるバックドア攻撃に対する防御の最適方針を見いだすための体系的アプローチを提案する。
特定政策は,8種類のバックドア攻撃を効果的に軽減し,既存の5つの防御方法より優れる。
論文 参考訳(メタデータ) (2020-12-13T08:51:37Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。