論文の概要: Provable Defense Against Delusive Poisoning
- arxiv url: http://arxiv.org/abs/2102.04716v1
- Date: Tue, 9 Feb 2021 09:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:58:36.124418
- Title: Provable Defense Against Delusive Poisoning
- Title(参考訳): デルーシブ・ポゾニングに対する確率的防御
- Authors: Lue Tao, Lei Feng, Jinfeng Yi, Sheng-Jun Huang, Songcan Chen
- Abstract要約: 本研究は, 対人訓練が妄想性中毒に対する防御法であることを示す。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
- 参考スコア(独自算出の注目度): 64.69220849669948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Delusive poisoning is a special kind of attack to obstruct learning, where
the learning performance could be significantly deteriorated by only
manipulating (even slightly) the features of correctly labeled training
examples. By formalizing this malicious attack as finding the worst-case
distribution shift at training time within a specific $\infty$-Wasserstein
ball, we show that minimizing adversarial risk on the poison data is equivalent
to optimizing an upper bound of natural risk on the original data. This implies
that adversarial training can be a principled defense method against delusive
poisoning. To further understand the internal mechanism of the defense, we
disclose that adversarial training can resist the training distribution shift
by preventing the learner from overly relying on non-robust features in a
natural setting. Finally, we complement our theoretical findings with a set of
experiments on popular benchmark datasets, which shows that the defense
withstands six different practical attacks. Both theoretical and empirical
results vote for adversarial training when confronted with delusive poisoning.
- Abstract(参考訳): 誤用中毒は学習を妨げる特殊な攻撃であり、正しくラベル付けされたトレーニング例の特徴を(少しでも)操作するだけで学習性能が著しく低下する可能性がある。
この悪意ある攻撃を、特定の$\infty$-wassersteinボール内のトレーニング時間における最悪の分布シフトを見つけるように定式化することで、毒物データの敵意リスクを最小化することは、元のデータに対する自然リスクの上限を最適化することと同値であることを示した。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
防御の内部機構をより深く理解するため,学習者が自然環境において非ロバスト特徴に過度に依存することを防止することにより,学習者の訓練分布シフトに対抗できることを明らかにした。
最後に,本研究の理論的知見を,人気のあるベンチマークデータセットに関する一連の実験で補完し,防衛が6つの異なる実用的攻撃に耐えることを示した。
理論的および経験的な結果の両方は、悪質な中毒に直面したときに敵対的な訓練に投票します。
関連論文リスト
- PACOL: Poisoning Attacks Against Continual Learners [1.569413950416037]
本研究では,悪意ある誤報によって連続学習システムを操作できることを実証する。
本稿では,連続学習者を対象としたデータ中毒攻撃の新たなカテゴリについて紹介する。
総合的な実験のセットは、一般的に使われている生成的リプレイと正規化に基づく攻撃方法に対する継続的な学習アプローチの脆弱性を示している。
論文 参考訳(メタデータ) (2023-11-18T00:20:57Z) - Transferable Availability Poisoning Attacks [23.241524904589326]
我々は、機械学習モデルの総合的なテスト精度を低下させることを目的とした、アベイラビリティーデータ中毒攻撃について検討する。
既存の毒殺対策は攻撃目標を達成することができるが、被害者は敵が攻撃をマウントするために使用するものと同じ学習方法を採用すると仮定する。
本稿では,まずアライメントと均一性の本質的な特性を活用して,非学習性を向上するTransferable Poisoningを提案する。
論文 参考訳(メタデータ) (2023-10-08T12:22:50Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。