論文の概要: Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness
- arxiv url: http://arxiv.org/abs/2403.10461v1
- Date: Fri, 15 Mar 2024 16:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 16:11:26.568715
- Title: Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness
- Title(参考訳): アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・トレーニング(ACAT)の導入によるMLロバストネスの促進
- Authors: Mohamed elShehaby, Aditya Kotha, Ashraf Matrawy,
- Abstract要約: 敵の訓練は、これらの攻撃に対する機械学習モデルの堅牢性を高めることが判明した。
特にネットワークやサイバーセキュリティのような ダイナミックな分野において
このレターでは、Adaptive Continuous Adversarial Training (ACAT)を導入し、モデルに敵のトレーニングサンプルを継続的に統合する。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) is susceptible to adversarial attacks that aim to trick ML models, making them produce faulty predictions. Adversarial training was found to increase the robustness of ML models against these attacks. However, in network and cybersecurity, obtaining labeled training and adversarial training data is challenging and costly. Furthermore, concept drift deepens the challenge, particularly in dynamic domains like network and cybersecurity, and requires various models to conduct periodic retraining. This letter introduces Adaptive Continuous Adversarial Training (ACAT) to continuously integrate adversarial training samples into the model during ongoing learning sessions, using real-world detected adversarial data, to enhance model resilience against evolving adversarial threats. ACAT is an adaptive defense mechanism that utilizes periodic retraining to effectively counter adversarial attacks while mitigating catastrophic forgetting. Our approach also reduces the total time required for adversarial sample detection, especially in environments such as network security where the rate of attacks could be very high. Traditional detection processes that involve two stages may result in lengthy procedures. Experimental results using a SPAM detection dataset demonstrate that with ACAT, the accuracy of the SPAM filter increased from 69% to over 88% after just three retraining sessions. Furthermore, ACAT outperforms conventional adversarial sample detectors, providing faster decision times, up to four times faster in some cases.
- Abstract(参考訳): 機械学習(ML)は、MLモデルを騙すことを目的とした敵攻撃の影響を受けやすく、誤った予測を生成する。
これらの攻撃に対して, MLモデルの堅牢性を高めるために, 対人訓練を行った。
しかし、ネットワークとサイバーセキュリティでは、ラベル付きトレーニングと敵のトレーニングデータを取得することは困難でコストがかかる。
さらに、ネットワークやサイバーセキュリティのような動的ドメインにおいて、コンセプトドリフトは課題をさらに深め、定期的な再トレーニングを行うにはさまざまなモデルが必要である。
このレターでは、Adaptive Continuous Adversarial Training (ACAT)を導入し、現在進行中の学習セッション中に、実際の検出された敵データを使用して、モデルに敵対的なトレーニングサンプルを継続的に統合し、進化する敵の脅威に対するモデルのレジリエンスを高める。
ACATは、周期的再訓練を利用して、破滅的な忘れを軽減しつつ、敵の攻撃を効果的に阻止する適応防御機構である。
また,攻撃の頻度が非常に高いネットワークセキュリティなどの環境において,敵検体検出に要する時間を削減する。
2つの段階を含む従来の検出プロセスは、長い手順をもたらす可能性がある。
SPAM検出データセットを用いた実験の結果、ACATでは、SPAMフィルタの精度はわずか3回のトレーニング後に69%から88%に向上した。
さらに、ACATは従来の対向サンプル検出器よりも優れており、決定時間が速く、場合によっては最大4倍高速である。
関連論文リスト
- usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Consistent Valid Physically-Realizable Adversarial Attack against
Crowd-flow Prediction Models [4.286570387250455]
ディープラーニング(DL)モデルは、都市全体のクラウドフローパターンを効果的に学習することができる。
DLモデルは、目立たない逆境の摂動に対して不利に作用することが知られている。
論文 参考訳(メタデータ) (2023-03-05T13:30:25Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Long-term Cross Adversarial Training: A Robust Meta-learning Method for
Few-shot Classification Tasks [10.058068783476598]
本稿では,LCAT(Long-term Cross Adversarial Training)と呼ばれる,逆向き頑健なニューラルネットワークのメタラーニング手法を提案する。
逆行訓練により、LCATはAQよりも逆行訓練の半数しか必要とせず、結果として逆行訓練のエポックは低くなる。
実験の結果,LCATはクリーンおよび逆数ショットの分類精度において優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-22T06:31:16Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。