論文の概要: Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2208.10224v4
- Date: Thu, 20 Jul 2023 05:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 18:57:23.968878
- Title: Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks
- Title(参考訳): 敵対的ノイズに対するフレンドリーなノイズ:データ中毒攻撃に対する強力な防御
- Authors: Tian Yu Liu, Yu Yang, Baharan Mirzasoleiman
- Abstract要約: 目に見えない)データ中毒攻撃の強力なカテゴリは、特定のテストタイムデータの予測を変更するために、小さな敵の摂動によってトレーニングサンプルのサブセットを変更する。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種の目に見えない毒素攻撃を破る手法を提案する。
提案手法は, 性能を劣化させることなく, 最大摂動例に最適化された親和性雑音と, ランダムに変化する雑音成分の2成分からなる。
- 参考スコア(独自算出の注目度): 15.761683760167777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A powerful category of (invisible) data poisoning attacks modify a subset of
training examples by small adversarial perturbations to change the prediction
of certain test-time data. Existing defense mechanisms are not desirable to
deploy in practice, as they often either drastically harm the generalization
performance, or are attack-specific, and prohibitively slow to apply. Here, we
propose a simple but highly effective approach that unlike existing methods
breaks various types of invisible poisoning attacks with the slightest drop in
the generalization performance. We make the key observation that attacks
introduce local sharp regions of high training loss, which when minimized,
results in learning the adversarial perturbations and makes the attack
successful. To break poisoning attacks, our key idea is to alleviate the sharp
loss regions introduced by poisons. To do so, our approach comprises two
components: an optimized friendly noise that is generated to maximally perturb
examples without degrading the performance, and a randomly varying noise
component. The combination of both components builds a very light-weight but
extremely effective defense against the most powerful triggerless targeted and
hidden-trigger backdoor poisoning attacks, including Gradient Matching,
Bulls-eye Polytope, and Sleeper Agent. We show that our friendly noise is
transferable to other architectures, and adaptive attacks cannot break our
defense due to its random noise component. Our code is available at:
https://github.com/tianyu139/friendly-noise
- Abstract(参考訳): 見えない)データ中毒攻撃の強力なカテゴリは、特定のテスト時間データの予測を変更するために、小さな敵の摂動によってトレーニング例のサブセットを変更する。
既存の防御機構は、しばしば一般化性能を著しく損なうか、攻撃固有のもので、適用が著しく遅いため、実際に配備されることは望ましくない。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種の目に見えない毒素攻撃を回避できる簡易かつ高効率な手法を提案する。
攻撃が局所的な鋭い領域に高訓練損失をもたらし、それが最小化されると、敵の摂動を学習し、攻撃を成功させるという重要な観察を行う。
毒殺攻撃を打破するためには、毒によって引き起こされる鋭い喪失領域を緩和する。
そこで本手法は, 性能を劣化させることなく, 最大摂動音に対して発生する最適化親和性雑音と, ランダムに変化する雑音成分の2成分からなる。
両方のコンポーネントの組み合わせは、非常に軽量だが、最も強力なトリガーレスターゲットおよび隠れトリガーバックドア中毒攻撃に対して非常に効果的に防御する、例えば勾配マッチング、ブルズアイポリトープ、睡眠剤などである。
我々は、我々のフレンドリーなノイズが他のアーキテクチャに転送可能であることを示し、適応的な攻撃はランダムなノイズ成分のために我々の防御を損なうことができないことを示す。
私たちのコードは、https://github.com/tianyu139/friendly-noiseで利用可能です。
関連論文リスト
- ECLIPSE: Expunging Clean-label Indiscriminate Poisons via Sparse Diffusion Purification [29.28977815669999]
クリーンラベルの無差別な中毒攻撃は、正しくラベル付けされた訓練画像に目に見えない摂動を加える。
ECLIPSEという,より普遍的で実用的で堅牢な防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T12:14:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - HINT: Healthy Influential-Noise based Training to Defend against Data
Poisoning Attacks [12.929357709840975]
本研究では,影響関数に基づくデータ中毒攻撃を効果的かつ堅牢に防ぐためのトレーニング手法を提案する。
影響関数を用いて、有害な攻撃に対する分類モデルを強化するのに役立つ健全なノイズを創出する。
実験の結果,HINTは非標的および標的の毒殺攻撃の効果に対して,ディープラーニングモデルを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:12:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Ensemble Noise Simulation to Handle Uncertainty about Gradient-based
Adversarial Attacks [5.4572790062292125]
ニューラルネットワークに対する勾配に基づく敵攻撃は、攻撃アルゴリズムが勾配に依存する方法を変えることで、様々な方法で作成することができる。
最近の研究は、攻撃者の行動に不確実性がない場合に分類器を守ることに重点を置いている。
このギャップを、様々な分類器の勾配に基づく様々な攻撃アルゴリズムを用いて、攻撃者のうるさい摂動をシミュレートすることで埋める。
提案したアンサンブル学習防御法を用いて,攻撃後の精度を大幅に改善した。
論文 参考訳(メタデータ) (2020-01-26T17:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。