論文の概要: Defending Distributed Classifiers Against Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2008.09284v1
- Date: Fri, 21 Aug 2020 03:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:01:23.750438
- Title: Defending Distributed Classifiers Against Data Poisoning Attacks
- Title(参考訳): データ中毒攻撃に対する分散分類器の防御
- Authors: Sandamal Weerasinghe, Tansu Alpcan, Sarah M. Erfani, Christopher
Leckie
- Abstract要約: サポートベクタマシン(SVM)は、ターゲットとするトレーニングデータ操作に対して脆弱である。
我々はこのような攻撃に対する抵抗を改善する新しい防御アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 26.89258745198076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support Vector Machines (SVMs) are vulnerable to targeted training data
manipulations such as poisoning attacks and label flips. By carefully
manipulating a subset of training samples, the attacker forces the learner to
compute an incorrect decision boundary, thereby cause misclassifications.
Considering the increased importance of SVMs in engineering and life-critical
applications, we develop a novel defense algorithm that improves resistance
against such attacks. Local Intrinsic Dimensionality (LID) is a promising
metric that characterizes the outlierness of data samples. In this work, we
introduce a new approximation of LID called K-LID that uses kernel distance in
the LID calculation, which allows LID to be calculated in high dimensional
transformed spaces. We introduce a weighted SVM against such attacks using
K-LID as a distinguishing characteristic that de-emphasizes the effect of
suspicious data samples on the SVM decision boundary. Each sample is weighted
on how likely its K-LID value is from the benign K-LID distribution rather than
the attacked K-LID distribution. We then demonstrate how the proposed defense
can be applied to a distributed SVM framework through a case study on an
SDR-based surveillance system. Experiments with benchmark data sets show that
the proposed defense reduces classification error rates substantially (10% on
average).
- Abstract(参考訳): サポートベクタマシン(SVM)は、毒殺攻撃やラベルフリップなどのターゲットデータ操作に対して脆弱である。
トレーニングサンプルのサブセットを慎重に操作することで、アタッカーは学習者に誤った決定境界を計算させ、誤分類を引き起こす。
工学的および生命クリティカルな応用におけるSVMの重要性の増大を考慮すると、このような攻撃に対する抵抗性を改善する新しい防御アルゴリズムを開発する。
局所固有次元(Local Intrinsic dimensionity, LID)は、データサンプルの外れ値を特徴付ける有望な計量である。
本研究では,LID計算におけるカーネル距離を用いたK-LIDという新しいLID近似を導入し,高次元変換空間におけるLIDの計算を可能にする。
我々は、疑わしいデータサンプルがSVM決定境界に与える影響を強調しない識別特性として、K-LIDを用いた攻撃に対する重み付けSVMを導入する。
各試料は、攻撃されたK-LID分布よりも良性K-LID分布から、そのK-LID値がどの程度高いかに重み付けされる。
次に,SDRに基づく監視システムを事例として,提案手法を分散SVMフレームワークに適用する方法を実演する。
ベンチマークデータセットを用いた実験により、提案した防御は分類誤り率を大幅に削減する(平均10%)。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Leveraging MTD to Mitigate Poisoning Attacks in Decentralized FL with Non-IID Data [9.715501137911552]
本稿では,DFLモデルのロバスト性を高めるため,移動目標防衛(MTD)アプローチを用いたフレームワークを提案する。
この枠組みはDFLシステムの攻撃面を継続的に修正することにより、効果的に中毒攻撃を緩和することを目的としている。
論文 参考訳(メタデータ) (2024-09-28T10:09:37Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Local Intrinsic Dimensionality Signals Adversarial Perturbations [28.328973408891834]
局所次元(Local dimensionality, LID)は、各データポイントを記述するのに必要な潜伏変数の最小数を記述する局所計量である。
本稿では、摂動データポイントのLID値に対する下界と上界を導出し、特に下界は摂動の大きさと正の相関を持つことを示す。
論文 参考訳(メタデータ) (2021-09-24T08:29:50Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Defending Regression Learners Against Poisoning Attacks [25.06658793731661]
N-LIDと呼ばれる新しい局所固有次元(LID)に基づく測度を導入し,その近傍データ点のLIDの局所偏差を測定する。
N-LIDは、正常なサンプルから有毒なサンプルを識別し、攻撃者を仮定しないN-LIDベースの防御アプローチを提案する。
提案した防御機構は,予測精度(未固定リッジモデルと比較して最大76%低いMSE)とランニング時間において,より優れることを示す。
論文 参考訳(メタデータ) (2020-08-21T03:02:58Z) - Defending SVMs against Poisoning Attacks: the Hardness and DBSCAN
Approach [27.503734504441365]
近年、敵対的機械学習が注目されている。
本稿では,SVMを毒殺攻撃から守ることを検討する。
我々は、堅牢なSVMアルゴリズムとデータ衛生化の2つの防衛戦略について研究する。
論文 参考訳(メタデータ) (2020-06-14T01:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。