論文の概要: Adversarial Training for Deep Learning-based Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2104.09852v1
- Date: Tue, 20 Apr 2021 09:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:28:24.718061
- Title: Adversarial Training for Deep Learning-based Intrusion Detection Systems
- Title(参考訳): 深層学習に基づく侵入検知システムの逆行訓練
- Authors: Islam Debicha, Thibault Debatty, Jean-Michel Dricot, Wim Mees
- Abstract要約: 本稿では,敵対攻撃が深層学習に基づく侵入検出に及ぼす影響について検討する。
十分な歪みを伴って、敵の例は検出器を誤解させ、敵の訓練を用いることで侵入検知の堅牢性を向上させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Deep Neural Networks (DNNs) report state-of-the-art results in many
machine learning areas, including intrusion detection. Nevertheless, recent
studies in computer vision have shown that DNNs can be vulnerable to
adversarial attacks that are capable of deceiving them into misclassification
by injecting specially crafted data. In security-critical areas, such attacks
can cause serious damage; therefore, in this paper, we examine the effect of
adversarial attacks on deep learning-based intrusion detection. In addition, we
investigate the effectiveness of adversarial training as a defense against such
attacks. Experimental results show that with sufficient distortion, adversarial
examples are able to mislead the detector and that the use of adversarial
training can improve the robustness of intrusion detection.
- Abstract(参考訳): 現在、Deep Neural Networks(DNN)は、侵入検出を含む多くの機械学習領域における最先端の結果を報告している。
しかし、コンピュータビジョンにおける最近の研究は、DNNが特殊に製作されたデータを注入することでそれらを誤分類に陥れる敵の攻撃に対して脆弱であることを示した。
セキュリティクリティカルな分野では、このような攻撃が深刻なダメージを与える可能性があるため、本稿では、ディープラーニングによる侵入検知に対する敵攻撃の影響について検討する。
また,このような攻撃に対する防御としての敵意訓練の有効性について検討した。
実験の結果, 十分な歪みを伴って, 敵の例は検出器を誤認し, 敵の訓練を用いることで侵入検知の堅牢性を向上させることが示唆された。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Physical Adversarial Attacks for Surveillance: A Survey [40.81031907691243]
本稿では,監視アプリケーションに対する身体的敵攻撃の学習と設計における最近の試みと成果を概観する。
特に,身体的敵攻撃を解析するための枠組みを提案し,4つの主要な監視課題に対する身体的敵攻撃を包括的に調査する。
本稿では,物理的な攻撃に対する監視システム内でのレジリエンスを構築するための重要なステップについて述べる。
論文 参考訳(メタデータ) (2023-05-01T20:19:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems [0.0]
本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
論文 参考訳(メタデータ) (2021-12-22T17:54:54Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。