論文の概要: Robustness of ML-Enhanced IDS to Stealthy Adversaries
- arxiv url: http://arxiv.org/abs/2104.10742v1
- Date: Wed, 21 Apr 2021 20:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:48:25.771668
- Title: Robustness of ML-Enhanced IDS to Stealthy Adversaries
- Title(参考訳): ML強化IDSのステルスアドバーナリーに対するロバスト性
- Authors: Vance Wong and John Emanuello
- Abstract要約: 侵入検知システム(IDS)は「正常」なサイバー行動のプロトタイプを効率的に構築する能力を示した。
これらは主にブラックボックスであるため、敵を盗むためには頑丈さの証明が必要である。
本研究は,ネットワーク活動に対する各種の有害な活動が混入したオートエンコーダによる異常検出システムを訓練し,この種の中毒に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intrusion Detection Systems (IDS) enhanced with Machine Learning (ML) have
demonstrated the capacity to efficiently build a prototype of "normal" cyber
behaviors in order to detect cyber threats' activity with greater accuracy than
traditional rule-based IDS. Because these are largely black boxes, their
acceptance requires proof of robustness to stealthy adversaries. Since it is
impossible to build a baseline from activity completely clean of that of
malicious cyber actors (outside of controlled experiments), the training data
for deployed models will be poisoned with examples of activity that analysts
would want to be alerted about. We train an autoencoder-based anomaly detection
system on network activity with various proportions of malicious activity mixed
in and demonstrate that they are robust to this sort of poisoning.
- Abstract(参考訳): 機械学習(ML)により強化された侵入検知システム(IDS)は、従来のルールベースのIDSよりも高い精度でサイバー脅威の活動を検出するために、「正常」なサイバー行動のプロトタイプを効率的に構築する能力を示した。
これらは主にブラックボックスであるため、敵を盗むためには頑丈さの証明が必要である。
悪意のあるサイバー攻撃者の行動からベースラインを構築することは不可能である(制御された実験とは別に)ため、デプロイされたモデルのトレーニングデータは、アナリストが警告したいアクティビティの例で汚染される。
本研究は,ネットワーク活動に対する各種の有害な活動が混入したオートエンコーダによる異常検出システムを訓練し,この種の中毒に対して堅牢であることを示す。
関連論文リスト
- Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Intrusion Detection using Network Traffic Profiling and Machine Learning
for IoT [2.309914459672557]
単一の妥協されたデバイスがネットワーク全体に影響を与え、セキュリティと物理的に大きなダメージを与える可能性がある。
本稿では、ネットワークプロファイリングと機械学習を用いて、サイバー攻撃に対してIoTを保護する可能性について検討する。
論文 参考訳(メタデータ) (2021-09-06T15:30:10Z) - End-To-End Anomaly Detection for Identifying Malicious Cyber Behavior
through NLP-Based Log Embeddings [0.0]
ルールベースのIDSは、より堅牢なニューラルIDSに置き換えられている。
NLPにインスパイアされたコンポーネントを組み込んだディープエンド・ツー・エンドのフレームワークを提案し、潜在的に悪意のある振る舞いを識別する。
論文 参考訳(メタデータ) (2021-08-27T13:49:00Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。