論文の概要: Certified Robustness of Nearest Neighbors against Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2012.03765v2
- Date: Thu, 4 Feb 2021 02:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 13:47:37.412404
- Title: Certified Robustness of Nearest Neighbors against Data Poisoning Attacks
- Title(参考訳): データ中毒攻撃に対する近隣住民の認定ロバスト性
- Authors: Jinyuan Jia and Xiaoyu Cao and Neil Zhenqiang Gong
- Abstract要約: knn と rnn における本質的な多数決機構は,一般的なデータ中毒攻撃に対する堅牢性保証をすでに提供している。
我々の結果は、将来認証されたデータ中毒攻撃に対する防御の基準となる。
- 参考スコア(独自算出の注目度): 31.85264586217373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data poisoning attacks aim to corrupt a machine learning model via modifying,
adding, and/or removing some carefully selected training examples, such that
the corrupted model predicts any or attacker-chosen incorrect labels for
testing examples. The key idea of state-of-the-art certified defenses against
data poisoning attacks is to create a \emph{majority vote} mechanism to predict
the label of a testing example. Moreover, each voter is a base classifier
trained on a subset of the training dataset. Classical simple learning
algorithms such as $k$ nearest neighbors (kNN) and radius nearest neighbors
(rNN) have intrinsic majority vote mechanisms. In this work, we show that the
intrinsic majority vote mechanisms in kNN and rNN already provide certified
robustness guarantees against general data poisoning attacks. Moreover, our
evaluation results on MNIST and CIFAR10 show that the intrinsic certified
robustness guarantees of kNN and rNN outperform those provided by
state-of-the-art certified defenses. Our results serve as standard baselines
for future certified defenses against data poisoning attacks.
- Abstract(参考訳): データ中毒攻撃は、機械学習モデルの変更、追加、あるいは慎重に選択されたトレーニング例の削除を通じて、マシンラーニングモデルを破壊することを目的としている。
データ中毒攻撃に対する最先端の認証防御に関する重要なアイデアは、テスト例のラベルを予測するための \emph{majority vote} メカニズムを作成することだ。
さらに、各投票者は、トレーニングデータセットのサブセットでトレーニングされたベース分類器である。
k$ near neighbors (knn) や radius closest neighbors (rnn) のような古典的な単純な学習アルゴリズムは、本質的な多数決機構を持っている。
本稿では,knn と rnn における本質的多数決機構が,一般データ中毒攻撃に対するロバスト性保証をすでに提供していることを示す。
さらに, MNIST と CIFAR10 に対する評価結果から,kNN と rNN の本質的な信頼性保証は, 最新技術による防御能力よりも優れていた。
我々の結果は、将来認証されたデータ中毒攻撃に対する防御の基準となる。
関連論文リスト
- FCert: Certifiably Robust Few-Shot Classification in the Era of Foundation Models [38.019489232264796]
FCertは、データ中毒攻撃に対する最初の認証された防御法であり、数発の分類である。
1)攻撃なしでの分類精度を維持すること,2)データ中毒攻撃に対する既存の認証された防御能力を上回ること,3)効率的で汎用的なこと,である。
論文 参考訳(メタデータ) (2024-04-12T17:50:40Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Poison Attacks against Text Datasets with Conditional Adversarially
Regularized Autoencoder [78.01180944665089]
本稿では,自然言語推論(NLI)とテキスト分類システムにおいて致命的な脆弱性を示す。
我々はNLPモデルに対する「バックドア中毒」攻撃を提示する。
論文 参考訳(メタデータ) (2020-10-06T13:03:49Z) - A Framework of Randomized Selection Based Certified Defenses Against
Data Poisoning Attacks [28.593598534525267]
本稿では,ランダム選択に基づくデータ中毒攻撃に対する認証防御の枠組みを提案する。
特定の条件を満たすランダム選択方式は、データ中毒攻撃に対して堅牢であることを示す。
当社のフレームワークは,トレーニングセットと中毒モデルに関する事前知識を活用することで,堅牢性の向上を可能にする。
論文 参考訳(メタデータ) (2020-09-18T10:38:12Z) - Deep Partition Aggregation: Provable Defense against General Poisoning
Attacks [136.79415677706612]
アドリアリン中毒は、分類器の試験時間挙動を損なうために訓練データを歪ませる。
毒殺攻撃に対する2つの新たな防御策を提案する。
DPAは一般的な中毒脅威モデルに対する認証された防御である。
SS-DPAはラベルフリップ攻撃に対する認証された防御である。
論文 参考訳(メタデータ) (2020-06-26T03:16:31Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。