論文の概要: A Multiagent CyberBattleSim for RL Cyber Operation Agents
- arxiv url: http://arxiv.org/abs/2304.11052v1
- Date: Mon, 3 Apr 2023 20:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 08:04:57.397552
- Title: A Multiagent CyberBattleSim for RL Cyber Operation Agents
- Title(参考訳): RLサイバー操作エージェントのためのマルチエージェントサイバーバトルシム
- Authors: Thomas Kunz, Christian Fisher, James La Novara-Gsell, Christopher
Nguyen, Li Li
- Abstract要約: CyberBattleSimは、レッドエージェント、すなわち攻撃者のトレーニングをサポートするトレーニング環境である。
私たちはブルーエージェント、すなわちディフェンダーを訓練する機能を追加しました。
この結果から,ブルーエージェントの訓練が攻撃に対する防御力を高めることが示唆された。
- 参考スコア(独自算出の注目度): 2.789574233231923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hardening cyber physical assets is both crucial and labor-intensive.
Recently, Machine Learning (ML) in general and Reinforcement Learning RL) more
specifically has shown great promise to automate tasks that otherwise would
require significant human insight/intelligence. The development of autonomous
RL agents requires a suitable training environment that allows us to quickly
evaluate various alternatives, in particular how to arrange training scenarios
that pit attackers and defenders against each other. CyberBattleSim is a
training environment that supports the training of red agents, i.e., attackers.
We added the capability to train blue agents, i.e., defenders. The paper
describes our changes and reports on the results we obtained when training blue
agents, either in isolation or jointly with red agents. Our results show that
training a blue agent does lead to stronger defenses against attacks. In
particular, training a blue agent jointly with a red agent increases the blue
agent's capability to thwart sophisticated red agents.
- Abstract(参考訳): サイバー物理的資産の強化は重要かつ労働集約的である。
近年、機械学習(ml)と強化学習(rl)は、重要な人間の洞察/知性を必要とするタスクを自動化できることを特に示しています。
自律的なrlエージェントの開発には、さまざまな選択肢、特に攻撃者や防御者を陥れるようなトレーニングシナリオの配置方法を迅速に評価できる、適切なトレーニング環境が必要です。
CyberBattleSimは、レッドエージェント、すなわち攻撃者のトレーニングをサポートするトレーニング環境である。
ブルーエージェント、すなわちディフェンダーを訓練する能力を追加しました。
本論文は,ブルーエージェントを単独またはレッドエージェントと共同で訓練した際に得られた結果について,我々の変化と報告について述べる。
その結果,ブルーエージェントの訓練は攻撃に対する防御力を高めることが判明した。
特に、青色剤と赤色剤を併用する訓練は、洗練された赤色剤を阻害するブルー剤の能力を高める。
関連論文リスト
- Reward Shaping for Happier Autonomous Cyber Security Agents [0.276240219662896]
最も有望な方向の1つは、深層強化学習を使用して、コンピュータネットワーク防衛タスクで自律エージェントを訓練する。
本研究は,この課題の訓練において,エージェントに提供される報酬信号の影響について検討する。
論文 参考訳(メタデータ) (2023-10-20T15:04:42Z) - Learning Cyber Defence Tactics from Scratch with Multi-Agent
Reinforcement Learning [4.796742432333795]
コンピュータネットワーク防衛の役割における知的エージェントのチームは、サイバーおよび運動的資産を保護するための有望な道を明らかにする可能性がある。
エージェントは、ホストベースの防衛シナリオにおける攻撃活動を共同で緩和する能力に基づいて評価される。
論文 参考訳(メタデータ) (2023-08-25T14:07:50Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Transferable Multi-Agent Reinforcement Learning with Dynamic
Participating Agents [19.52531351740528]
集中学習中にエージェントの数を変動させることができる数ショット学習アルゴリズムを用いたネットワークアーキテクチャを提案する。
提案するネットワークアーキテクチャとアルゴリズムを用いることで,新たなエージェントが加わった場合のモデル適応がベースラインの100倍以上の速度で実現できることを示す。
論文 参考訳(メタデータ) (2022-08-04T03:16:42Z) - Learning to Transfer Role Assignment Across Team Sizes [48.43860606706273]
チーム規模で役割の割り当てと移譲を学ぶためのフレームワークを提案する。
ロールベースの信用割当構造を再利用することで、より大きな強化学習チームの学習プロセスが促進されることを示す。
論文 参考訳(メタデータ) (2022-04-17T11:22:01Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Room Clearance with Feudal Hierarchical Reinforcement Learning [2.867517731896504]
本稿では,RL研究を軍事分析に有用な方向に進めるためのシナリオ構築ツールとして,新しいシミュレーション環境「it」を紹介した。
そこでは、青いエージェントのチームが建物を通り抜け、すべての部屋が敵のレッドエージェントから取り除かれるようにしなければなりません。
封建的階層型RLのマルチエージェント版を実装し、より上位の指揮官が命令を下級の複数のエージェントに送信するコマンド階層を導入する。
このような方法でタスクを壊すことで、私たちはそれを可能にすることに気付きました。
論文 参考訳(メタデータ) (2021-05-24T15:05:58Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。