論文の概要: Defending SVMs against Poisoning Attacks: the Hardness and DBSCAN
Approach
- arxiv url: http://arxiv.org/abs/2006.07757v5
- Date: Sat, 20 Feb 2021 12:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 12:41:22.546784
- Title: Defending SVMs against Poisoning Attacks: the Hardness and DBSCAN
Approach
- Title(参考訳): 中毒攻撃に対するSVMの防御 - 硬度とDBSCANアプローチ
- Authors: Hu Ding, Fan Yang, Jiawei Huang
- Abstract要約: 近年、敵対的機械学習が注目されている。
本稿では,SVMを毒殺攻撃から守ることを検討する。
我々は、堅牢なSVMアルゴリズムとデータ衛生化の2つの防衛戦略について研究する。
- 参考スコア(独自算出の注目度): 27.503734504441365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial machine learning has attracted a great amount of attention in
recent years. In a poisoning attack, the adversary can inject a small number of
specially crafted samples into the training data which make the decision
boundary severely deviate and cause unexpected misclassification. Due to the
great importance and popular use of support vector machines (SVM), we consider
defending SVM against poisoning attacks in this paper. We study two commonly
used strategies for defending: designing robust SVM algorithms and data
sanitization. Though several robust SVM algorithms have been proposed before,
most of them either are in lack of adversarial-resilience, or rely on strong
assumptions about the data distribution or the attacker's behavior. Moreover,
the research on their complexities is still quite limited. We are the first, to
the best of our knowledge, to prove that even the simplest hard-margin
one-class SVM with outliers problem is NP-complete, and has no fully PTAS
unless P$=$NP (that means it is hard to achieve an even approximate algorithm).
For the data sanitization defense, we link it to the intrinsic dimensionality
of data; in particular, we provide a sampling theorem in doubling metrics for
explaining the effectiveness of DBSCAN (as a density-based outlier removal
method) for defending against poisoning attacks. In our empirical experiments,
we compare several defenses including the DBSCAN and robust SVM methods, and
investigate the influences from the intrinsic dimensionality and data density
to their performances.
- Abstract(参考訳): 敵対的機械学習は近年、多くの注目を集めている。
毒攻撃において、敵は少数の特殊工品サンプルを訓練データに注入し、決定境界を著しく逸脱させ、予期せぬ誤分類を引き起こす。
サポートベクターマシン(SVM)の重要性と普及度から,本論文では毒殺攻撃からSVMを守ることを検討する。
我々は、堅牢なSVMアルゴリズムとデータ衛生化の2つの防衛戦略について研究する。
これまでいくつかの堅牢なSVMアルゴリズムが提案されてきたが、そのほとんどは敵対的抵抗性の欠如、あるいはデータ分散や攻撃者の振る舞いに関する強い仮定に依存している。
さらに、その複雑さに関する研究は、まだかなり限られている。
我々は、私たちの知る限り、最も単純なハードマージンの1クラスSVMでさえ、外れ値問題のあるNP完全であり、P$=$NPでない限り完全なPTASを持っていないことを証明するために、私たちの知る限りでは初めてである。
特に,DBSCAN(密度に基づく外れ値除去法)の有効性を説明するために,データの本質的次元性(intrinsic dimensionality)に関するサンプル定理を2倍のメトリクスで提供する。
実験実験では,DBSCAN法や堅牢SVM法などいくつかの防衛法を比較し,本質的な次元とデータ密度がそれらの性能に与える影響について検討した。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Evaluating robustness of support vector machines with the Lagrangian
dual approach [6.868150350359336]
非線形カーネルを用いたベクトルマシン(SVM)の検証性能を向上させる手法を提案する。
我々は,MNISTおよびFashion-MNISTデータセット上で線形および非線形カーネルを持つSVMの対角的ロバスト性を評価する。
実験結果から,テストセット上で得られた証明可能なロバスト性の割合は,最先端技術よりも良好であることが示唆された。
論文 参考訳(メタデータ) (2023-06-05T07:15:54Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Lethal Dose Conjecture on Data Poisoning [122.83280749890078]
データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
論文 参考訳(メタデータ) (2022-08-05T17:53:59Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast and Scalable Adversarial Training of Kernel SVM via Doubly
Stochastic Gradients [34.98827928892501]
自然例とほとんど区別できない例を生成することで敵攻撃は、学習モデルに深刻な脅威をもたらす。
サポートベクトルマシン(SVM)は、現在のディープラーニング時代においても、古典的ながら重要な学習アルゴリズムである。
本稿では,最も有望な防御技術であるadv-SVMを提案する。
論文 参考訳(メタデータ) (2021-07-21T08:15:32Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Defending Distributed Classifiers Against Data Poisoning Attacks [26.89258745198076]
サポートベクタマシン(SVM)は、ターゲットとするトレーニングデータ操作に対して脆弱である。
我々はこのような攻撃に対する抵抗を改善する新しい防御アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-08-21T03:11:23Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。