論文の概要: Robustness of ML-Enhanced IDS to Stealthy Adversaries
- arxiv url: http://arxiv.org/abs/2104.10742v1
- Date: Wed, 21 Apr 2021 20:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:48:25.771668
- Title: Robustness of ML-Enhanced IDS to Stealthy Adversaries
- Title(参考訳): ML強化IDSのステルスアドバーナリーに対するロバスト性
- Authors: Vance Wong and John Emanuello
- Abstract要約: 侵入検知システム(IDS)は「正常」なサイバー行動のプロトタイプを効率的に構築する能力を示した。
これらは主にブラックボックスであるため、敵を盗むためには頑丈さの証明が必要である。
本研究は,ネットワーク活動に対する各種の有害な活動が混入したオートエンコーダによる異常検出システムを訓練し,この種の中毒に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intrusion Detection Systems (IDS) enhanced with Machine Learning (ML) have
demonstrated the capacity to efficiently build a prototype of "normal" cyber
behaviors in order to detect cyber threats' activity with greater accuracy than
traditional rule-based IDS. Because these are largely black boxes, their
acceptance requires proof of robustness to stealthy adversaries. Since it is
impossible to build a baseline from activity completely clean of that of
malicious cyber actors (outside of controlled experiments), the training data
for deployed models will be poisoned with examples of activity that analysts
would want to be alerted about. We train an autoencoder-based anomaly detection
system on network activity with various proportions of malicious activity mixed
in and demonstrate that they are robust to this sort of poisoning.
- Abstract(参考訳): 機械学習(ML)により強化された侵入検知システム(IDS)は、従来のルールベースのIDSよりも高い精度でサイバー脅威の活動を検出するために、「正常」なサイバー行動のプロトタイプを効率的に構築する能力を示した。
これらは主にブラックボックスであるため、敵を盗むためには頑丈さの証明が必要である。
悪意のあるサイバー攻撃者の行動からベースラインを構築することは不可能である(制御された実験とは別に)ため、デプロイされたモデルのトレーニングデータは、アナリストが警告したいアクティビティの例で汚染される。
本研究は,ネットワーク活動に対する各種の有害な活動が混入したオートエンコーダによる異常検出システムを訓練し,この種の中毒に対して堅牢であることを示す。
関連論文リスト
- Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Intrusion Detection using Network Traffic Profiling and Machine Learning
for IoT [2.309914459672557]
単一の妥協されたデバイスがネットワーク全体に影響を与え、セキュリティと物理的に大きなダメージを与える可能性がある。
本稿では、ネットワークプロファイリングと機械学習を用いて、サイバー攻撃に対してIoTを保護する可能性について検討する。
論文 参考訳(メタデータ) (2021-09-06T15:30:10Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。