論文の概要: Bullseye Polytope: A Scalable Clean-Label Poisoning Attack with Improved
Transferability
- arxiv url: http://arxiv.org/abs/2005.00191v3
- Date: Sun, 14 Mar 2021 01:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 23:18:57.703665
- Title: Bullseye Polytope: A Scalable Clean-Label Poisoning Attack with Improved
Transferability
- Title(参考訳): Bullseye Polytope: トランスファービリティを改善したスケーラブルなクリーンラベル中毒攻撃
- Authors: Hojjat Aghakhani, Dongyu Meng, Yu-Xiang Wang, Christopher Kruegel, and
Giovanni Vigna
- Abstract要約: ニューラルネットワークに対する最近の懸念の源は、クリーンラベルデータセット中毒攻撃の出現である。
本稿では,移動学習に対するスケーラブルで移動可能なクリーンラベル中毒攻撃を提案する。
我々の攻撃であるBullseye Polytopeは、エンドツーエンドのトランスファー学習において、現在の最先端技術の攻撃成功率を26.75%向上させる。
- 参考スコア(独自算出の注目度): 23.031305862548226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent source of concern for the security of neural networks is the
emergence of clean-label dataset poisoning attacks, wherein correctly labeled
poison samples are injected into the training dataset. While these poison
samples look legitimate to the human observer, they contain malicious
characteristics that trigger a targeted misclassification during inference. We
propose a scalable and transferable clean-label poisoning attack against
transfer learning, which creates poison images with their center close to the
target image in the feature space. Our attack, Bullseye Polytope, improves the
attack success rate of the current state-of-the-art by 26.75% in end-to-end
transfer learning, while increasing attack speed by a factor of 12. We further
extend Bullseye Polytope to a more practical attack model by including multiple
images of the same object (e.g., from different angles) when crafting the
poison samples. We demonstrate that this extension improves attack
transferability by over 16% to unseen images (of the same object) without using
extra poison samples.
- Abstract(参考訳): ニューラルネットワークのセキュリティに対する最近の懸念の源泉は、トレーニングデータセットに正しくラベル付けされた毒サンプルを注入するクリーンラベルデータセット中毒攻撃の出現である。
これらの毒のサンプルは人間の観察者にとって正しいように見えるが、推論中に標的の誤分類を引き起こす悪意のある特徴を含んでいる。
そこで我々は,移動学習に対するスケーラブルで移動可能なクリーンラベル中毒攻撃を提案し,特徴空間内のターゲット画像に近い中心に毒画像を生成する。
我々の攻撃であるBullseye Polytopeは、現在の最先端技術の攻撃成功率を26.75%向上させ、攻撃速度を12倍に向上させた。
我々はさらにブルジー・ポリトープをより実用的な攻撃モデルに拡張し、毒サンプルを作成する際に同じ物体(例えば、異なる角度から)の複数の画像を含める。
この拡張により、余分な毒のサンプルを使わずに、16%以上の画像(同じオブジェクト)のアタック転送性が向上する。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Diffusion Denoising as a Certified Defense against Clean-label Poisoning [56.04951180983087]
本稿では,市販の拡散モデルを用いて,改ざんしたトレーニングデータを浄化する方法を示す。
7件のクリーンラベル中毒に対する我々の防御を広範囲に検証し、その攻撃成功率を0-16%に抑え、テスト時間の精度は無視できない程度に低下した。
論文 参考訳(メタデータ) (2024-03-18T17:17:07Z) - Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models [26.301156075883483]
本研究は, 発生モデルにおいて, 毒殺攻撃が有効であることを示す。
我々は、最適化されたプロンプト特異的中毒攻撃であるNightshadeを紹介する。
我々は、Nightshade攻撃がテキスト・ツー・イメージ生成モデルにおける一般的な特徴を不安定にすることができることを示す。
論文 参考訳(メタデータ) (2023-10-20T21:54:10Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Backdooring and Poisoning Neural Networks with Image-Scaling Attacks [15.807243762876901]
バックドアと毒殺攻撃を隠蔽するための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
画像スケーリング攻撃と組み合わせれば,バックドアや中毒も同じように有効であることを示す。
論文 参考訳(メタデータ) (2020-03-19T08:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。