論文の概要: Lethal Dose Conjecture on Data Poisoning
- arxiv url: http://arxiv.org/abs/2208.03309v1
- Date: Fri, 5 Aug 2022 17:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:07:25.884736
- Title: Lethal Dose Conjecture on Data Poisoning
- Title(参考訳): データ中毒における致死量推定
- Authors: Wenxiao Wang, Alexander Levine, Soheil Feizi
- Abstract要約: データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
- 参考スコア(独自算出の注目度): 122.83280749890078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data poisoning considers an adversary that distorts the training set of
machine learning algorithms for malicious purposes. In this work, we bring to
light one conjecture regarding the fundamentals of data poisoning, which we
call the Lethal Dose Conjecture. The conjecture states: If $n$ clean training
samples are needed for accurate predictions, then in a size-$N$ training set,
only $\Theta(N/n)$ poisoned samples can be tolerated while ensuring accuracy.
Theoretically, we verify this conjecture in multiple cases. We also offer a
more general perspective of this conjecture through distribution
discrimination. Deep Partition Aggregation (DPA) and its extension, Finite
Aggregation (FA) are recent approaches for provable defenses against data
poisoning, where they predict through the majority vote of many base models
trained from different subsets of training set using a given learner. The
conjecture implies that both DPA and FA are (asymptotically) optimal -- if we
have the most data-efficient learner, they can turn it into one of the most
robust defenses against data poisoning. This outlines a practical approach to
developing stronger defenses against poisoning via finding data-efficient
learners. Empirically, as a proof of concept, we show that by simply using
different data augmentations for base learners, we can respectively double and
triple the certified robustness of DPA on CIFAR-10 and GTSRB without
sacrificing accuracy.
- Abstract(参考訳): データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪める敵を考える。
本研究では, 致死線量予想 (lethal dose conjecture) と呼ばれるデータ中毒の基礎について, 一つの推測を明らかにした。
正確な予測のために$n$クリーンなトレーニングサンプルが必要な場合、サイズ-$N$トレーニングセットでは、正確性を確保しながら許容できるのは$\Theta(N/n)$有毒なサンプルのみである。
理論的には、この予想を複数のケースで検証する。
また、分布判別を通じてこの予想のより一般的な視点を提供する。
ディープパーティションアグリゲーション(dpa)とその拡張である有限アグリゲーション(fa)は、データ中毒に対する証明可能な防御のための最近のアプローチであり、与えられた学習者を使用してトレーニングセットの異なるサブセットからトレーニングされた多くのベースモデルの多数決を通じて予測する。
この予想は、DPAとFAの両方が(漸近的に)最適であることを意味している。最もデータ効率のよい学習者があれば、データ中毒に対する最も堅牢な防御の1つにすることができる。
これは、データ効率のよい学習者を見つけることによって、中毒に対する防御力を高めるための実践的なアプローチを概説する。
実証実験により, 基本学習者に対して異なるデータ拡張を単純に使用すれば, CIFAR-10 と GTSRB 上での DPA の堅牢性は, 精度を犠牲にすることなく, それぞれ2倍・3倍に向上できることを示す。
関連論文リスト
- On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - How to Sift Out a Clean Data Subset in the Presence of Data Poisoning? [22.014227948221727]
データ中毒攻撃の有無でクリーンなデータを特定するために,自動化ツールと人間の検査がいかに正確かを検討する。
本手法は, 既存の攻撃による汚染サンプルが, クリーンなデータ分布から変化していくという知見に基づいている。
評価の結果,Meta-Siftは広範囲の毒素攻撃下で100%の精度でクリーンなベースセットをシフできることがわかった。
論文 参考訳(メタデータ) (2022-10-12T18:18:21Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Provable Defense Against Delusive Poisoning [64.69220849669948]
本研究は, 対人訓練が妄想性中毒に対する防御法であることを示す。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
論文 参考訳(メタデータ) (2021-02-09T09:19:47Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - A Framework of Randomized Selection Based Certified Defenses Against
Data Poisoning Attacks [28.593598534525267]
本稿では,ランダム選択に基づくデータ中毒攻撃に対する認証防御の枠組みを提案する。
特定の条件を満たすランダム選択方式は、データ中毒攻撃に対して堅牢であることを示す。
当社のフレームワークは,トレーニングセットと中毒モデルに関する事前知識を活用することで,堅牢性の向上を可能にする。
論文 参考訳(メタデータ) (2020-09-18T10:38:12Z) - Deep Partition Aggregation: Provable Defense against General Poisoning
Attacks [136.79415677706612]
アドリアリン中毒は、分類器の試験時間挙動を損なうために訓練データを歪ませる。
毒殺攻撃に対する2つの新たな防御策を提案する。
DPAは一般的な中毒脅威モデルに対する認証された防御である。
SS-DPAはラベルフリップ攻撃に対する認証された防御である。
論文 参考訳(メタデータ) (2020-06-26T03:16:31Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。