論文の概要: SecureLearn - An Attack-agnostic Defense for Multiclass Machine Learning Against Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2510.22274v1
- Date: Sat, 25 Oct 2025 12:35:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.014671
- Title: SecureLearn - An Attack-agnostic Defense for Multiclass Machine Learning Against Data Poisoning Attacks
- Title(参考訳): SecureLearn - データ中毒攻撃に対するマルチクラス機械学習のためのアタック非依存の防御
- Authors: Anum Paracha, Junaid Arshad, Mohamed Ben Farah, Khalid Ismail,
- Abstract要約: 既存の防御は、主に特定の中毒攻撃を軽減するために設計されているか、あるいは特定のMLアルゴリズムに適合している。
本稿では,毒殺からマルチクラスモデルを守るための2層アタック・アグノースティック・ディフェンスであるSecureLearnを提案する。
ニューラルネットワークでは、SecureLearnが97%のリコールとF1スコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data poisoning attacks are a potential threat to machine learning (ML) models, aiming to manipulate training datasets to disrupt their performance. Existing defenses are mostly designed to mitigate specific poisoning attacks or are aligned with particular ML algorithms. Furthermore, most defenses are developed to secure deep neural networks or binary classifiers. However, traditional multiclass classifiers need attention to be secure from data poisoning attacks, as these models are significant in developing multi-modal applications. Therefore, this paper proposes SecureLearn, a two-layer attack-agnostic defense to defend multiclass models from poisoning attacks. It comprises two components of data sanitization and a new feature-oriented adversarial training. To ascertain the effectiveness of SecureLearn, we proposed a 3D evaluation matrix with three orthogonal dimensions: data poisoning attack, data sanitization and adversarial training. Benchmarking SecureLearn in a 3D matrix, a detailed analysis is conducted at different poisoning levels (10%-20%), particularly analysing accuracy, recall, F1-score, detection and correction rates, and false discovery rate. The experimentation is conducted for four ML algorithms, namely Random Forest (RF), Decision Tree (DT), Gaussian Naive Bayes (GNB) and Multilayer Perceptron (MLP), trained with three public datasets, against three poisoning attacks and compared with two existing mitigations. Our results highlight that SecureLearn is effective against the provided attacks. SecureLearn has strengthened resilience and adversarial robustness of traditional multiclass models and neural networks, confirming its generalization beyond algorithm-specific defenses. It consistently maintained accuracy above 90%, recall and F1-score above 75%. For neural networks, SecureLearn achieved 97% recall and F1-score against all selected poisoning attacks.
- Abstract(参考訳): データ中毒攻撃は、機械学習(ML)モデルに対する潜在的な脅威であり、トレーニングデータセットを操作してパフォーマンスを損なうことを目的としている。
既存の防御は、主に特定の中毒攻撃を軽減するために設計されているか、あるいは特定のMLアルゴリズムに適合している。
さらに、ほとんどのディフェンスは、ディープニューラルネットワークまたはバイナリ分類器を保護するために開発されている。
しかし、従来のマルチクラス分類器は、これらのモデルがマルチモーダルアプリケーションを開発する上で重要であるため、データ中毒攻撃から安全であることに注意が必要である。
そこで本論文では,毒殺から多層モデルを守るための2層アタック・アグノースティック・ディフェンスであるSecureLearnを提案する。
データサニタイゼーションの2つのコンポーネントと、新たな機能指向の対向トレーニングで構成されている。
SecureLearnの有効性を確認するために,3次元の直交次元を持つ3次元評価行列を提案した。
SecureLearnを3Dマトリックスでベンチマークし、特に精度、リコール、F1スコア、検出と修正率、偽発見率を分析して、異なる毒性レベル(10%-20%)で詳細な分析を行う。
実験は、ランダムフォレスト(RF)、決定木(DT)、ガウスネーブベイズ(GNB)、多層パーセプトロン(MLP)の4つのMLアルゴリズムに対して行われ、3つの公開データセットでトレーニングされ、3つの中毒攻撃に対して、既存の2つの緩和と比較される。
結果から,SecureLearnは攻撃に対して有効であることがわかった。
SecureLearnは、従来のマルチクラスモデルとニューラルネットワークのレジリエンスと敵対的堅牢性を強化し、アルゴリズム固有の防御を超えた一般化を確認した。
精度は90%以上、リコールとF1スコアは75%以上を維持した。
ニューラルネットワークでは、SecureLearnが97%のリコールとF1スコアを達成した。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Traceback of Data Poisoning Attacks in Neural Networks [24.571668412312196]
深層ニューラルネットワークに対する毒物攻撃のための法医学的トレースバックツールの開発における当社の取り組みについて述べる。
学習サンプルをトリムする新たな反復的クラスタリングおよびプルーニングソリューションを提案する。
筆者らは,3種類の汚泥(バックドア)中毒と3種類のクリーンラベル中毒に対して,本システムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2021-10-13T17:39:18Z) - Classification Auto-Encoder based Detector against Diverse Data
Poisoning Attacks [7.150136251781658]
毒殺攻撃は、敵対的な機械学習の脅威のカテゴリである。
本稿では,有毒データに対する分類オートエンコーダを用いた検出器であるCAEを提案する。
CAEの強化版(CAE+と呼ばれる)では、防御モデルをトレーニングするためにクリーンなデータセットを使わなくてもよいことを示す。
論文 参考訳(メタデータ) (2021-08-09T17:46:52Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。