論文の概要: Adversarial Evasion Attacks Practicality in Networks: Testing the Impact
of Dynamic Learning
- arxiv url: http://arxiv.org/abs/2306.05494v1
- Date: Thu, 8 Jun 2023 18:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 15:43:54.622696
- Title: Adversarial Evasion Attacks Practicality in Networks: Testing the Impact
of Dynamic Learning
- Title(参考訳): ネットワークにおける敵の侵入攻撃--動的学習の影響の検証
- Authors: Mohamed el Shehaby and Ashraf Matrawy
- Abstract要約: 敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
連続的な再訓練は、敵の訓練なしでも、敵の攻撃の効果を減らすことができる。
我々の目標は、この領域における研究と現実の実践の間に大きなギャップがあることを強調することです。
- 参考スコア(独自算出の注目度): 4.822598110892847
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Machine Learning (ML) has become ubiquitous, and its deployment in Network
Intrusion Detection Systems (NIDS) is inevitable due to its automated nature
and high accuracy in processing and classifying large volumes of data. However,
ML has been found to have several flaws, on top of them are adversarial
attacks, which aim to trick ML models into producing faulty predictions. While
most adversarial attack research focuses on computer vision datasets, recent
studies have explored the practicality of such attacks against ML-based network
security entities, especially NIDS.
This paper presents two distinct contributions: a taxonomy of practicality
issues associated with adversarial attacks against ML-based NIDS and an
investigation of the impact of continuous training on adversarial attacks
against NIDS. Our experiments indicate that continuous re-training, even
without adversarial training, can reduce the effect of adversarial attacks.
While adversarial attacks can harm ML-based NIDSs, our aim is to highlight that
there is a significant gap between research and real-world practicality in this
domain which requires attention.
- Abstract(参考訳): 機械学習(ML)はユビキタスになり、ネットワーク侵入検知システム(NIDS)への展開は、その自動化の性質と大量のデータの処理と分類において高い精度で避けられない。
しかし、MLにはいくつかの欠陥があることが判明しており、その上に敵攻撃があり、MLモデルを騙して欠陥予測を生成することを目的としている。
多くの敵攻撃研究はコンピュータビジョンデータセットに焦点を当てているが、最近の研究ではMLベースのネットワークセキュリティエンティティ、特にNIDSに対する攻撃の実用性について検討されている。
本稿では,ML ベースの NIDS に対する敵対的攻撃に関連する実践的問題の分類法と,NIDS に対する敵的攻撃に対する継続的訓練の影響について検討する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の効果を低減できることを示した。
敵攻撃はMLベースのNIDSを損なう可能性があるが、この領域における研究と現実の実践の間に大きなギャップがあることを強調することを目的としている。
関連論文リスト
- Breaking Down the Defenses: A Comparative Survey of Attacks on Large Language Models [18.624280305864804]
大規模言語モデル(LLM)は自然言語処理(NLP)分野の基盤となっている。
本稿では,LSMを標的とした様々な攻撃形態の包括的調査を行う。
モデルアウトプットを操作するための敵攻撃、モデルトレーニングに影響を与えるデータ中毒、データエクスプロイトのトレーニングに関連するプライバシー上の懸念などについて調べる。
論文 参考訳(メタデータ) (2024-03-03T04:46:21Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - SoK: Realistic Adversarial Attacks and Defenses for Intelligent Network
Intrusion Detection [0.0]
本稿では,現実的な実例を生み出すことのできる,最先端の対人学習アプローチの統合と要約を行う。
これは、逆例が現実的であるために必要な基本的性質を定義する。
研究者が将来の実験が実際の通信ネットワークに適切であることを確実にするためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-08-13T17:23:36Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - On the Security Risks of AutoML [38.03918108363182]
Neural Architecture Search(NAS)は、与えられたタスクに適したモデルを自動的に検索する、新たな機械学習パラダイムである。
手動で設計したモデルと比較すると、NAS生成モデルは様々な悪意ある攻撃に対して大きな脆弱性を被る傾向にある。
本稿では,セル深さの増大やスキップ接続の抑制など,このような欠点を軽減するための対策の可能性について論じる。
論文 参考訳(メタデータ) (2021-10-12T14:04:15Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors [21.86766733460335]
本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
論文 参考訳(メタデータ) (2020-05-15T13:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。