論文の概要: Autonomous Network Defence using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2409.18197v1
- Date: Thu, 26 Sep 2024 18:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 15:31:30.979055
- Title: Autonomous Network Defence using Reinforcement Learning
- Title(参考訳): 強化学習を用いた自律ネットワーク防御
- Authors: Myles Foley, Chris Hicks, Kate Highnam, Vasilios Mavroudis,
- Abstract要約: 現実的なネットワーク防衛シナリオにおける自律エージェントの有効性について検討する。
新たな強化学習エージェントは、2つの先進的持続的脅威(APT)レッドエージェントによる連続的な攻撃を確実に防御できることを示す。
- 参考スコア(独自算出の注目度): 1.7249361224827533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the network security arms race, the defender is significantly disadvantaged as they need to successfully detect and counter every malicious attack. In contrast, the attacker needs to succeed only once. To level the playing field, we investigate the effectiveness of autonomous agents in a realistic network defence scenario. We first outline the problem, provide the background on reinforcement learning and detail our proposed agent design. Using a network environment simulation, with 13 hosts spanning 3 subnets, we train a novel reinforcement learning agent and show that it can reliably defend continual attacks by two advanced persistent threat (APT) red agents: one with complete knowledge of the network layout and another which must discover resources through exploration but is more general.
- Abstract(参考訳): ネットワークセキュリティの武器競争では、ディフェンダーは悪意のある攻撃を検知し、対処する必要があるため、非常に不利である。
一方、攻撃者は一度だけ成功する必要がある。
本研究では,現実的なネットワーク防衛シナリオにおける自律エージェントの有効性について検討する。
まず、問題を概説し、強化学習の背景を提供し、提案するエージェント設計について詳述する。
3つのサブネットにまたがる13のホストを持つネットワーク環境シミュレーションを用いて、新しい強化学習エージェントを訓練し、2つの先進的永続脅威(APT)レッドエージェントによる連続攻撃を確実に防御できることを示す。
関連論文リスト
- Hierarchical Multi-agent Reinforcement Learning for Cyber Network Defense [7.967738380932909]
本稿では,サイバー防御タスクをネットワーク調査やホストリカバリといった特定のサブタスクに分解する階層的PPOアーキテクチャを提案する。
我々のアプローチは、ドメインの専門知識が強化されたPPOを使用して、各サブタスクのサブ政治を訓練することである。
これらのサブ政治は、複雑なネットワーク防御タスクを解決するためにそれらの選択を調整するマスターディフェンスポリシーによって活用される。
論文 参考訳(メタデータ) (2024-10-22T18:35:05Z) - Leveraging Reinforcement Learning in Red Teaming for Advanced Ransomware Attack Simulations [7.361316528368866]
本稿では,ランサムウェア攻撃のシミュレーションに強化学習(RL)を利用する新しい手法を提案する。
実世界のネットワークを模倣するシミュレーション環境でRLエージェントを訓練することにより、効果的な攻撃戦略を迅速に学習することができる。
152ホストのサンプルネットワークの実験結果から,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2024-06-25T14:16:40Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Learning Decentralized Strategies for a Perimeter Defense Game with
Graph Neural Networks [111.9039128130633]
グラフニューラルネットワークに基づく学習フレームワークを設計し、ディフェンダーのローカル認識と通信グラフからディフェンダーの行動へのマッピングを学習する。
提案するネットワークは,専門家の方針に近づき,より多くの侵入者を捕捉することで,他のベースラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-24T22:48:51Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Autonomous Attack Mitigation for Industrial Control Systems [25.894883701063055]
サイバー攻撃からコンピュータネットワークを守るには、警告や脅威情報に対するタイムリーな対応が必要である。
本稿では,大規模産業制御ネットワークにおける自律応答と回復に対する深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-03T18:08:06Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Network Defense is Not a Game [0.0]
研究は、人工知能を人間のオペレーターがネットワークを守る能力のスケールと拡張に応用することを目指している。
我々の立場は、ネットワーク・ディフェンスは不確実でおそらく漂流するルールを持つゲームの集合として特徴づけられる。
ネットワーク防御タスクをネットワーク環境の分布として定義することを提案する。
論文 参考訳(メタデータ) (2021-04-20T21:52:51Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。