論文の概要: Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching
- arxiv url: http://arxiv.org/abs/2009.02276v2
- Date: Mon, 10 May 2021 15:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 01:51:14.340518
- Title: Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching
- Title(参考訳): witches' brew:グラデーションマッチングによる産業規模のデータ中毒
- Authors: Jonas Geiping, Liam Fowl, W. Ronny Huang, Wojciech Czaja, Gavin
Taylor, Michael Moeller, Tom Goldstein
- Abstract要約: Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
- 参考スコア(独自算出の注目度): 56.280018325419896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Poisoning attacks modify training data to maliciously control a model
trained on such data. In this work, we focus on targeted poisoning attacks
which cause a reclassification of an unmodified test image and as such breach
model integrity. We consider a particularly malicious poisoning attack that is
both "from scratch" and "clean label", meaning we analyze an attack that
successfully works against new, randomly initialized models, and is nearly
imperceptible to humans, all while perturbing only a small fraction of the
training data. Previous poisoning attacks against deep neural networks in this
setting have been limited in scope and success, working only in simplified
settings or being prohibitively expensive for large datasets. The central
mechanism of the new attack is matching the gradient direction of malicious
examples. We analyze why this works, supplement with practical considerations.
and show its threat to real-world practitioners, finding that it is the first
poisoning method to cause targeted misclassification in modern deep networks
trained from scratch on a full-sized, poisoned ImageNet dataset. Finally we
demonstrate the limitations of existing defensive strategies against such an
attack, concluding that data poisoning is a credible threat, even for
large-scale deep learning systems.
- Abstract(参考訳): Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
本研究では,未修正の検査画像の再分類を誘発する標的毒殺攻撃と,そのような欠陥モデル整合性に着目した。
我々は「ゼロから」と「クリーンラベル」の両方である、特に有害な中毒攻撃を考える。つまり、新しいランダムに初期化されたモデルに対して正常に作用する攻撃を分析し、トレーニングデータのごく一部を摂食しながら、人間にはほとんど認識できない。
この設定でのディープニューラルネットワークに対する以前の毒殺攻撃は、スコープと成功に制限されており、単純化された設定でしか動作しないか、大規模データセットに対して制限的に高価である。
新しい攻撃のメカニズムは悪意のある例の勾配方向と一致している。
我々はこれがなぜ機能するのかを分析し、実践的な考察を補う。
そして、実際の実践者に対する脅威を示し、フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こす最初の毒殺方法であることがわかった。
最後に,このような攻撃に対する既存の防御戦略の限界を実証し,大規模深層学習システムにおいてもデータ中毒は信頼できる脅威であることを示す。
関連論文リスト
- Inverting Gradient Attacks Naturally Makes Data Poisons: An Availability Attack on Neural Networks [12.80649024603656]
グラディエントアタックと、それらを変更する機械学習アルゴリズムによるデータ中毒は、設定で同等であることが証明されている。
データ中毒は、ニューラルネットワークを攻撃するために勾配攻撃を模倣することを示す。
論文 参考訳(メタデータ) (2024-10-28T18:57:15Z) - Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks [11.390175856652856]
クリーンラベル攻撃は、毒性のあるデータのラベルを変更することなく攻撃を行うことができる、よりステルスなバックドア攻撃である。
本研究は,攻撃成功率を高めるために,標的クラス内の少数の訓練サンプルを選択的に毒殺する方法について検討した。
私たちの脅威モデルは、サードパーティのデータセットで機械学習モデルをトレーニングする上で深刻な脅威となる。
論文 参考訳(メタデータ) (2024-07-15T15:38:21Z) - Sharpness-Aware Data Poisoning Attack [38.01535347191942]
最近の研究は、データ中毒攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を強調している。
我々は「SAPA(シャープネス・アウェア・データ・ポジショニング・アタック)」と呼ばれる新たな攻撃方法を提案する。
特に、DNNの損失ランドスケープシャープネスの概念を活用して、最悪の再訓練モデルに対する中毒効果を最適化する。
論文 参考訳(メタデータ) (2023-05-24T08:00:21Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Data Poisoning Attacks on Regression Learning and Corresponding Defenses [0.0]
逆データ中毒は機械学習に対する効果的な攻撃であり、トレーニングデータセットに有毒データを導入することでモデルの完全性を脅かす。
データ中毒攻撃が生産システムに脅威を与え、新たなブラックボックス攻撃をもたらす現実的なシナリオを提示する。
その結果, 残留剤の平均二乗誤差(MSE)は, わずか2%の毒素を挿入することにより150パーセントに増加することがわかった。
論文 参考訳(メタデータ) (2020-09-15T12:14:54Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z) - Weight Poisoning Attacks on Pre-trained Models [103.19413805873585]
本研究は, バックドアを微調整した後に, バックドアを露出する脆弱性を伴って, 事前訓練した重量を注入した場合に, 重量中毒を発生させることが可能であることを示す。
感情分類,毒性検出,スパム検出に関する実験により,この攻撃は広く適用可能であり,深刻な脅威となることが示された。
論文 参考訳(メタデータ) (2020-04-14T16:51:42Z) - MetaPoison: Practical General-purpose Clean-label Data Poisoning [58.13959698513719]
データ中毒は、ニューラルネットワークの文脈における新たな脅威である。
メタポゾン(MetaPoison)は、メタラーニングによって二段階問題を近似し、ニューラルネットワークを騙す毒を発生させる一階法である。
ブラックボックスのGoogle Cloud AutoML APIでトレーニングされたモデルのデータ中毒が、初めて成功したことを実証します。
論文 参考訳(メタデータ) (2020-04-01T04:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。