論文の概要: A Multiagent CyberBattleSim for RL Cyber Operation Agents
- arxiv url: http://arxiv.org/abs/2304.11052v1
- Date: Mon, 3 Apr 2023 20:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 08:04:57.397552
- Title: A Multiagent CyberBattleSim for RL Cyber Operation Agents
- Title(参考訳): RLサイバー操作エージェントのためのマルチエージェントサイバーバトルシム
- Authors: Thomas Kunz, Christian Fisher, James La Novara-Gsell, Christopher
Nguyen, Li Li
- Abstract要約: CyberBattleSimは、レッドエージェント、すなわち攻撃者のトレーニングをサポートするトレーニング環境である。
私たちはブルーエージェント、すなわちディフェンダーを訓練する機能を追加しました。
この結果から,ブルーエージェントの訓練が攻撃に対する防御力を高めることが示唆された。
- 参考スコア(独自算出の注目度): 2.789574233231923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hardening cyber physical assets is both crucial and labor-intensive.
Recently, Machine Learning (ML) in general and Reinforcement Learning RL) more
specifically has shown great promise to automate tasks that otherwise would
require significant human insight/intelligence. The development of autonomous
RL agents requires a suitable training environment that allows us to quickly
evaluate various alternatives, in particular how to arrange training scenarios
that pit attackers and defenders against each other. CyberBattleSim is a
training environment that supports the training of red agents, i.e., attackers.
We added the capability to train blue agents, i.e., defenders. The paper
describes our changes and reports on the results we obtained when training blue
agents, either in isolation or jointly with red agents. Our results show that
training a blue agent does lead to stronger defenses against attacks. In
particular, training a blue agent jointly with a red agent increases the blue
agent's capability to thwart sophisticated red agents.
- Abstract(参考訳): サイバー物理的資産の強化は重要かつ労働集約的である。
近年、機械学習(ml)と強化学習(rl)は、重要な人間の洞察/知性を必要とするタスクを自動化できることを特に示しています。
自律的なrlエージェントの開発には、さまざまな選択肢、特に攻撃者や防御者を陥れるようなトレーニングシナリオの配置方法を迅速に評価できる、適切なトレーニング環境が必要です。
CyberBattleSimは、レッドエージェント、すなわち攻撃者のトレーニングをサポートするトレーニング環境である。
ブルーエージェント、すなわちディフェンダーを訓練する能力を追加しました。
本論文は,ブルーエージェントを単独またはレッドエージェントと共同で訓練した際に得られた結果について,我々の変化と報告について述べる。
その結果,ブルーエージェントの訓練は攻撃に対する防御力を高めることが判明した。
特に、青色剤と赤色剤を併用する訓練は、洗練された赤色剤を阻害するブルー剤の能力を高める。
関連論文リスト
- Multi-Objective Reinforcement Learning for Automated Resilient Cyber Defence [0.0]
サイバー攻撃は、軍事指揮統制ネットワーク、情報、監視、偵察(ISR)システム、民間の臨界国家インフラにセキュリティ上の脅威をもたらす。
これらの攻撃における人工知能と自律エージェントの使用は、この脅威の規模、範囲、複雑さを増大させ、それらが引き起こす破壊を後押しする。
自律サイバー防衛(ACD)エージェントは、マシンスピードとこの問題に対処するために必要なスケールで応答することで、この脅威を軽減することを目指している。
論文 参考訳(メタデータ) (2024-11-26T16:51:52Z) - Autonomous Network Defence using Reinforcement Learning [1.7249361224827533]
現実的なネットワーク防衛シナリオにおける自律エージェントの有効性について検討する。
新たな強化学習エージェントは、2つの先進的持続的脅威(APT)レッドエージェントによる連続的な攻撃を確実に防御できることを示す。
論文 参考訳(メタデータ) (2024-09-26T18:24:09Z) - Toward Optimal LLM Alignments Using Two-Player Games [86.39338084862324]
本稿では,対戦相手と防御エージェントの反復的相互作用を含む2エージェントゲームのレンズによるアライメントについて検討する。
この反復的強化学習最適化がエージェントによって誘導されるゲームに対するナッシュ平衡に収束することを理論的に実証する。
安全シナリオにおける実験結果から、このような競争環境下での学習は、完全に訓練するエージェントだけでなく、敵エージェントと防御エージェントの両方に対する一般化能力の向上したポリシーにつながることが示されている。
論文 参考訳(メタデータ) (2024-06-16T15:24:50Z) - On Autonomous Agents in a Cyber Defence Environment [0.0]
我々は,Cyber Autonomy Gym for Experimentationの一部として提示された自律型サイバー運用環境の有用性について検討する。
CAGE Challenge 2は攻撃するレッドエージェントからネットワークを守るためにブルーエージェントを必要とした。
我々は,一元的深層強化学習(DRL),階層型DRL,アンサンブル,非DRLの4種類のアルゴリズムを同定する。
論文 参考訳(メタデータ) (2023-09-14T02:09:36Z) - Towards Autonomous Cyber Operation Agents: Exploring the Red Case [3.805031560408777]
強化・深部強化学習(RL/DRL)がサイバーネットワーク運用のための自律エージェントの開発に応用されている(CyOps)。
トレーニング環境は、エージェントが学び、達成することを目的とした、高い忠実度でCyOpsをシミュレートする必要があります。
優れたシミュレータは、サイバー環境の極端な複雑さのために達成し難い。
論文 参考訳(メタデータ) (2023-09-05T13:56:31Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Room Clearance with Feudal Hierarchical Reinforcement Learning [2.867517731896504]
本稿では,RL研究を軍事分析に有用な方向に進めるためのシナリオ構築ツールとして,新しいシミュレーション環境「it」を紹介した。
そこでは、青いエージェントのチームが建物を通り抜け、すべての部屋が敵のレッドエージェントから取り除かれるようにしなければなりません。
封建的階層型RLのマルチエージェント版を実装し、より上位の指揮官が命令を下級の複数のエージェントに送信するコマンド階層を導入する。
このような方法でタスクを壊すことで、私たちはそれを可能にすることに気付きました。
論文 参考訳(メタデータ) (2021-05-24T15:05:58Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。