論文の概要: DeepPoison: Feature Transfer Based Stealthy Poisoning Attack
- arxiv url: http://arxiv.org/abs/2101.02562v2
- Date: Fri, 8 Jan 2021 04:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 00:12:13.925391
- Title: DeepPoison: Feature Transfer Based Stealthy Poisoning Attack
- Title(参考訳): DeepPoison: フィーチャートランスファーベースのステルス中毒攻撃
- Authors: Jinyin Chen, Longyuan Zhang, Haibin Zheng, Xueke Wang and Zhaoyan Ming
- Abstract要約: DeepPoisonは、1つの発電機と2つの識別器の斬新な敵対ネットワークです。
DeepPoisonは最先端の攻撃成功率を91.74%まで達成できる。
- 参考スコア(独自算出の注目度): 2.1445455835823624
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks are susceptible to poisoning attacks by purposely
polluted training data with specific triggers. As existing episodes mainly
focused on attack success rate with patch-based samples, defense algorithms can
easily detect these poisoning samples. We propose DeepPoison, a novel
adversarial network of one generator and two discriminators, to address this
problem. Specifically, the generator automatically extracts the target class'
hidden features and embeds them into benign training samples. One discriminator
controls the ratio of the poisoning perturbation. The other discriminator works
as the target model to testify the poisoning effects. The novelty of DeepPoison
lies in that the generated poisoned training samples are indistinguishable from
the benign ones by both defensive methods and manual visual inspection, and
even benign test samples can achieve the attack. Extensive experiments have
shown that DeepPoison can achieve a state-of-the-art attack success rate, as
high as 91.74%, with only 7% poisoned samples on publicly available datasets
LFW and CASIA. Furthermore, we have experimented with high-performance defense
algorithms such as autodecoder defense and DBSCAN cluster detection and showed
the resilience of DeepPoison.
- Abstract(参考訳): ディープニューラルネットワークは、特定のトリガーで故意に汚染されたトレーニングデータによる毒殺の影響を受けやすい。
既存のエピソードは主にパッチベースのサンプルによる攻撃成功率に焦点を当てているため、防衛アルゴリズムはこれらの中毒サンプルを容易に検出することができる。
本研究では,1つの生成器と2つの識別器からなる新たな逆ネットワークであるdeeppoisonを提案する。
具体的には、ジェネレータがターゲットクラスの隠れた特徴を自動的に抽出し、良質なトレーニングサンプルに埋め込む。
1つの判別器は、中毒摂動の比率を制御する。
他の識別器は標的モデルとして働き、毒殺効果を証言する。
DeepPoisonの新規性は、生成した有毒なトレーニングサンプルが防御方法と手動の視覚検査の両方によって良質なものと区別できず、良質なテストサンプルでさえ攻撃を達成できる点にある。
大規模な実験により、DeepPoisonは91.74%の最先端の攻撃成功率を達成でき、公開データセットLFWとCASIAの7%しか有毒ではないことが示されている。
さらに、オートデコーダディフェンスやDBSCANクラスタ検出などの高性能な防御アルゴリズムの実験を行い、DeepPoisonのレジリエンスを示した。
関連論文リスト
- The Victim and The Beneficiary: Exploiting a Poisoned Model to Train a Clean Model on Poisoned Data [4.9676716806872125]
バックドア攻撃は、ディープニューラルネットワーク(DNN)のトレーニングプロセスに深刻なセキュリティ上の脅威をもたらしている
The Victim and The Beneficiary (V&B) は有毒なモデルを利用して、余分な良性サンプルを使わずにクリーンなモデルを訓練する。
本フレームワークは,良質な試料の性能を維持しつつ,バックドア注入の防止と各種攻撃に対する堅牢化に有効である。
論文 参考訳(メタデータ) (2024-04-17T11:15:58Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - De-Pois: An Attack-Agnostic Defense against Data Poisoning Attacks [17.646155241759743]
De-Poisは、中毒攻撃に対する攻撃に依存しない防御です。
我々は,4種類の毒殺攻撃を実施,5種類の典型的な防御方法を用いてデポアを評価する。
論文 参考訳(メタデータ) (2021-05-08T04:47:37Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Poison Attacks against Text Datasets with Conditional Adversarially
Regularized Autoencoder [78.01180944665089]
本稿では,自然言語推論(NLI)とテキスト分類システムにおいて致命的な脆弱性を示す。
我々はNLPモデルに対する「バックドア中毒」攻撃を提示する。
論文 参考訳(メタデータ) (2020-10-06T13:03:49Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Model-Targeted Poisoning Attacks with Provable Convergence [19.196295769662186]
中毒攻撃では、トレーニングデータのごく一部を制御している敵が、破損したモデルを誘導する方法で、そのデータを選択しようとする。
我々は,凸機械学習モデルに対する中毒攻撃について検討し,特定のモデルを誘導する効率的な中毒攻撃を提案する。
論文 参考訳(メタデータ) (2020-06-30T01:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。