論文の概要: Adaptative Perturbation Patterns: Realistic Adversarial Learning for
Robust NIDS
- arxiv url: http://arxiv.org/abs/2203.04234v1
- Date: Tue, 8 Mar 2022 17:52:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:39:12.988748
- Title: Adaptative Perturbation Patterns: Realistic Adversarial Learning for
Robust NIDS
- Title(参考訳): 適応摂動パターン:ロバストNIDSの現実的逆学習
- Authors: Jo\~ao Vitorino, Nuno Oliveira, Isabel Pra\c{c}a
- Abstract要約: アドリアックは、機械学習とそれに依存するシステムにとって大きな脅威となる。
この研究は、グレーボックス設定でこれらの制約を満たすためにAdaptative Perturbation Pattern Method (A2PM)を導入する。
A2PMは、各クラスの特性に独立して適応し、有効で一貫性のあるデータ摂動を生成するパターン配列に依存している。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks pose a major threat to machine learning and to the
systems that rely on it. Nonetheless, adversarial examples cannot be freely
generated for domains with tabular data, such as cybersecurity. This work
establishes the fundamental constraint levels required to achieve realism and
introduces the Adaptative Perturbation Pattern Method (A2PM) to fulfill these
constraints in a gray-box setting. A2PM relies on pattern sequences that are
independently adapted to the characteristics of each class to create valid and
coherent data perturbations. The developed method was evaluated in a
cybersecurity case study with two scenarios: Enterprise and Internet of Things
(IoT) networks. Multilayer Perceptron (MLP) and Random Forest (RF) classifiers
were created with regular and adversarial training, using the CIC-IDS2017 and
IoT-23 datasets. In each scenario, targeted and untargeted attacks were
performed against the classifiers, and the generated examples were compared
with the original network traffic flows to assess their realism. The obtained
results demonstrate that A2PM provides a time efficient generation of realistic
adversarial examples, which can be advantageous for both adversarial training
and attacks.
- Abstract(参考訳): 敵対的攻撃は、機械学習とそれに依存するシステムにとって大きな脅威となる。
それでも、サイバーセキュリティのような表データを持つドメインに対して、敵の例を自由に生成することはできない。
この研究は現実主義を実現するために必要な基本的な制約レベルを確立し、グレーボックス設定でこれらの制約を満たすための適応摂動パターン法(A2PM)を導入する。
A2PMは、各クラスの特性に独立して適応し、有効で一貫性のあるデータ摂動を生成するパターン配列に依存している。
開発した手法は,企業とIoT(Internet of Things)ネットワークという2つのシナリオを用いたサイバーセキュリティケーススタディで評価された。
マルチレイヤパーセプトロン(MLP)とランダムフォレスト(RF)の分類器は、CIC-IDS2017とIoT-23データセットを使用して、正規および逆のトレーニングによって作成された。
各シナリオにおいて、ターゲットと未ターゲットの攻撃を分類器に対して行い、生成した例を元のネットワークトラフィックフローと比較して現実性を評価した。
その結果,A2PMは現実的な実例を時間効率よく生成し,敵の訓練と攻撃の双方に有利であることがわかった。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。