論文の概要: Efficient Backdoor Attacks for Deep Neural Networks in Real-world
Scenarios
- arxiv url: http://arxiv.org/abs/2306.08386v1
- Date: Wed, 14 Jun 2023 09:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:27:11.288522
- Title: Efficient Backdoor Attacks for Deep Neural Networks in Real-world
Scenarios
- Title(参考訳): 実世界シナリオにおけるディープニューラルネットワークの効率的なバックドア攻撃
- Authors: Hong Sun, Ziqiang Li, Pengfei Xia, Heng Li, Beihao Xia, Yi Wu, Bin Li
- Abstract要約: ディープニューラルネットワーク(DNN)は大量のトレーニングデータに依存しており、悪意のある攻撃者がデータを悪用して汚染する機会となっている。
本稿では、被害者が複数のソースからデータを収集し、攻撃者が完全な訓練データにアクセスできないような、より現実的な攻撃シナリオを提案する。
本稿では,CLIP(Contrastive Language- Image Pre-Training)モデルを利用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 17.96339494812858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent deep neural networks (DNNs) have come to rely on vast amounts of
training data, providing an opportunity for malicious attackers to exploit and
contaminate the data to carry out backdoor attacks. These attacks significantly
undermine the reliability of DNNs. However, existing backdoor attack methods
make unrealistic assumptions, assuming that all training data comes from a
single source and that attackers have full access to the training data. In this
paper, we address this limitation by introducing a more realistic attack
scenario where victims collect data from multiple sources, and attackers cannot
access the complete training data. We refer to this scenario as
data-constrained backdoor attacks. In such cases, previous attack methods
suffer from severe efficiency degradation due to the entanglement between
benign and poisoning features during the backdoor injection process.
To tackle this problem, we propose a novel approach that leverages the
pre-trained Contrastive Language-Image Pre-Training (CLIP) model. We introduce
three CLIP-based technologies from two distinct streams: Clean Feature
Suppression, which aims to suppress the influence of clean features to enhance
the prominence of poisoning features, and Poisoning Feature Augmentation, which
focuses on augmenting the presence and impact of poisoning features to
effectively manipulate the model's behavior.
To evaluate the effectiveness, harmlessness to benign accuracy, and
stealthiness of our method, we conduct extensive experiments on 3 target
models, 3 datasets, and over 15 different settings. The results demonstrate
remarkable improvements, with some settings achieving over 100% improvement
compared to existing attacks in data-constrained scenarios. Our research
contributes to addressing the limitations of existing methods and provides a
practical and effective solution for data-constrained backdoor attacks.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)は、大量のトレーニングデータに依存しており、悪意のある攻撃者がデータを悪用して汚染し、バックドア攻撃を行う機会となっている。
これらの攻撃はDNNの信頼性を著しく損なう。
しかし、既存のバックドア攻撃手法は、すべてのトレーニングデータが単一のソースから来ており、攻撃者がトレーニングデータへの完全なアクセスを前提として、非現実的な仮定をする。
本稿では、被害者が複数のソースからデータを収集し、攻撃者が完全なトレーニングデータにアクセスできないような、より現実的な攻撃シナリオを導入することで、この制限に対処する。
このシナリオを、データ制約されたバックドア攻撃と呼んでいる。
このような場合、以前の攻撃方法は、バックドア注入の過程で良性と毒物の特徴が絡み合うことによる効率の低下に苦しむ。
そこで本研究では,CLIP(Contrastive Language- Image Pre-Training)モデルを用いた新しい手法を提案する。
そこで,本研究では,清潔な特徴の影響を抑制することを目的とした,清潔な特徴抑制技術と,モデルの動作を効果的に操作するための中毒機能の存在と影響を増強することに焦点を当てた中毒機能増強技術という,2つの異なる流れからのクリップベースの技術を紹介する。
本手法の有効性, 正確性に対する無害性, およびステルスネスを評価するため, 3つのターゲットモデル, 3つのデータセット, 15以上の異なる設定について広範な実験を行った。
その結果、データ制約のあるシナリオにおける既存の攻撃と比較して、いくつかの設定で100%以上の改善が達成された。
本研究は,既存の手法の限界に対処し,データ制約されたバックドア攻撃に対する実用的で効果的な解決策を提供する。
関連論文リスト
- Indiscriminate Data Poisoning Attacks on Pre-trained Feature Extractors [26.36344184385407]
本稿では,事前訓練した特徴抽出器を応用した下流タスクに対する無差別攻撃の脅威について検討する。
入力空間攻撃とは,(1)既存の攻撃を修正して入力空間に有毒なデータを作る攻撃と,(2)学習した特徴表現をデータセットとして扱うことで有毒な特徴を見つける攻撃である。
実験では、同じデータセット上の微調整やドメイン適応を考慮した転帰学習など、下流の一般的なタスクにおける攻撃について検討した。
論文 参考訳(メタデータ) (2024-02-20T01:12:59Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Traceback of Data Poisoning Attacks in Neural Networks [24.571668412312196]
深層ニューラルネットワークに対する毒物攻撃のための法医学的トレースバックツールの開発における当社の取り組みについて述べる。
学習サンプルをトリムする新たな反復的クラスタリングおよびプルーニングソリューションを提案する。
筆者らは,3種類の汚泥(バックドア)中毒と3種類のクリーンラベル中毒に対して,本システムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2021-10-13T17:39:18Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - DeepSweep: An Evaluation Framework for Mitigating DNN Backdoor Attacks
using Data Augmentation [16.455154794893055]
サードパーティプロバイダは、有毒なサンプルをデータセットに注入したり、Deep Learningモデルにバックドアを埋め込むことができる。
異なるバックドア攻撃に対する防御の最適方針を見いだすための体系的アプローチを提案する。
特定政策は,8種類のバックドア攻撃を効果的に軽減し,既存の5つの防御方法より優れる。
論文 参考訳(メタデータ) (2020-12-13T08:51:37Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。