論文の概要: Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2208.10224v1
- Date: Sun, 14 Aug 2022 02:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:17:20.695688
- Title: Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks
- Title(参考訳): 敵対的ノイズに対するフレンドリーなノイズ:データ中毒攻撃に対する強力な防御
- Authors: Tian Yu Liu, Yu Yang, Baharan Mirzasoleiman
- Abstract要約: データ中毒攻撃の強力なカテゴリは、特定のテストタイムデータの予測を変更するために、小さな逆方向の摂動によってトレーニングサンプルのサブセットを変更する。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種毒素攻撃を回避できる簡易かつ高効率な手法を提案する。
本手法は, 最大摂動音量に最適化された適応的雑音と, ランダム変動雑音成分の2成分からなる。
- 参考スコア(独自算出の注目度): 15.761683760167777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A powerful category of data poisoning attacks modify a subset of training
examples by small adversarial perturbations to change the prediction of certain
test-time data. Existing defense mechanisms are not desirable to deploy in
practice, as they often drastically harm the generalization performance, or are
attack-specific and prohibitively slow to apply. Here, we propose a simple but
highly effective approach that unlike existing methods breaks various types of
poisoning attacks with the slightest drop in the generalization performance. We
make the key observation that attacks exploit sharp loss regions to craft
adversarial perturbations which can substantially alter examples' gradient or
representations under small perturbations. To break poisoning attacks, our
approach comprises two components: an optimized friendly noise that is
generated to maximally perturb examples without degrading the performance, and
a random varying noise component. The first component takes examples farther
away from the sharp loss regions, and the second component smooths out the loss
landscape. The combination of both components builds a very light-weight but
extremely effective defense against the most powerful triggerless targeted and
hidden-trigger backdoor poisoning attacks, including Gradient Matching,
Bulls-eye Polytope, and Sleeper Agent. We show that our friendly noise is
transferable to other architectures, and adaptive attacks cannot break our
defense due to its random noise component.
- Abstract(参考訳): データ中毒攻撃の強力なカテゴリは、特定のテストタイムデータの予測を変更するために、小さな逆の摂動によってトレーニングサンプルのサブセットを変更する。
既存の防御機構は、しばしば一般化性能を著しく損なうか、攻撃に特化して適用が違法に遅いため、実際に展開するのが望ましいものではない。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種毒素攻撃を回避できる簡易かつ高効率な手法を提案する。
攻撃は鋭い損失領域を生かして、小さな摂動下での例の勾配や表現を実質的に変える敵の摂動を創造する重要な観察を行う。
有毒化攻撃を打破するため,本手法は,実例を最大に摂動させるように最適化された親和性雑音と,無作為な変動雑音成分の2つの成分からなる。
第1のコンポーネントはシャープなロス領域から遠く離れた例を取り、第2のコンポーネントはロスランドスケープを滑らかにする。
両方のコンポーネントの組み合わせは、非常に軽量だが、最も強力なトリガーレスターゲットおよび隠れトリガーバックドア中毒攻撃に対して非常に効果的に防御する、例えば勾配マッチング、ブルズアイポリトープ、睡眠剤などである。
我々は、我々のフレンドリーなノイズが他のアーキテクチャに転送可能であることを示し、適応的な攻撃はランダムなノイズ成分のために我々の防御を損なうことができないことを示す。
関連論文リスト
- ECLIPSE: Expunging Clean-label Indiscriminate Poisons via Sparse Diffusion Purification [29.28977815669999]
クリーンラベルの無差別な中毒攻撃は、正しくラベル付けされた訓練画像に目に見えない摂動を加える。
ECLIPSEという,より普遍的で実用的で堅牢な防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T12:14:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - HINT: Healthy Influential-Noise based Training to Defend against Data
Poisoning Attacks [12.929357709840975]
本研究では,影響関数に基づくデータ中毒攻撃を効果的かつ堅牢に防ぐためのトレーニング手法を提案する。
影響関数を用いて、有害な攻撃に対する分類モデルを強化するのに役立つ健全なノイズを創出する。
実験の結果,HINTは非標的および標的の毒殺攻撃の効果に対して,ディープラーニングモデルを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:12:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Ensemble Noise Simulation to Handle Uncertainty about Gradient-based
Adversarial Attacks [5.4572790062292125]
ニューラルネットワークに対する勾配に基づく敵攻撃は、攻撃アルゴリズムが勾配に依存する方法を変えることで、様々な方法で作成することができる。
最近の研究は、攻撃者の行動に不確実性がない場合に分類器を守ることに重点を置いている。
このギャップを、様々な分類器の勾配に基づく様々な攻撃アルゴリズムを用いて、攻撃者のうるさい摂動をシミュレートすることで埋める。
提案したアンサンブル学習防御法を用いて,攻撃後の精度を大幅に改善した。
論文 参考訳(メタデータ) (2020-01-26T17:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。