論文の概要: CyGIL: A Cyber Gym for Training Autonomous Agents over Emulated Network
Systems
- arxiv url: http://arxiv.org/abs/2109.03331v1
- Date: Tue, 7 Sep 2021 20:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:55:49.525155
- Title: CyGIL: A Cyber Gym for Training Autonomous Agents over Emulated Network
Systems
- Title(参考訳): cygil: エミュレートされたネットワークシステム上で自律エージェントを訓練するサイバージム
- Authors: Li Li, Raed Fayad, Adrian Taylor
- Abstract要約: CyGILは、ネットワークサイバー操作のためのエミュレートされたRLトレーニング環境の実験ベッドである。
ステートレスな環境アーキテクチャを使用し、MITRE ATT&CKフレームワークを組み込んで、高品質なトレーニング環境を確立する。
その包括的なアクションスペースとフレキシブルなゲームデザインにより、エージェントトレーニングは特定の高度な永続脅威(APT)プロファイルに集中することができる。
- 参考スコア(独自算出の注目度): 3.2550963598419957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the success of reinforcement learning (RL) in various domains, it is
promising to explore the application of its methods to the development of
intelligent and autonomous cyber agents. Enabling this development requires a
representative RL training environment. To that end, this work presents CyGIL:
an experimental testbed of an emulated RL training environment for network
cyber operations. CyGIL uses a stateless environment architecture and
incorporates the MITRE ATT&CK framework to establish a high fidelity training
environment, while presenting a sufficiently abstracted interface to enable RL
training. Its comprehensive action space and flexible game design allow the
agent training to focus on particular advanced persistent threat (APT)
profiles, and to incorporate a broad range of potential threats and
vulnerabilities. By striking a balance between fidelity and simplicity, it aims
to leverage state of the art RL algorithms for application to real-world cyber
defence.
- Abstract(参考訳): 各種分野における強化学習(RL)の成功を踏まえ,知的かつ自律的なサイバーエージェントの開発にその手法を適用することを約束している。
この開発を実現するには、代表的なRLトレーニング環境が必要です。
この目的のために、ネットワークサイバー操作のためのシミュレーションRLトレーニング環境の実験的なテストベッドであるCyGILを提示する。
CyGILはステートレス環境アーキテクチャを使用し、MITRE ATT&CKフレームワークを組み込んで高忠実度トレーニング環境を確立し、RLトレーニングを実現するのに十分なインターフェースを提供する。
その包括的なアクションスペースとフレキシブルなゲームデザインにより、エージェントトレーニングは特定の高度な永続脅威(APT)プロファイルに集中でき、幅広い潜在的な脅威と脆弱性を組み込むことができる。
忠実性とシンプルさのバランスを取ることで、最先端のrlアルゴリズムを現実世界のサイバー防衛に適用することを目指している。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Learning Curricula in Open-Ended Worlds [17.138779075998084]
この論文は、Unsupervised Environment Design (UED)と呼ばれる手法のクラスを開発する。
環境設計空間が与えられたら、UEDは自動的に訓練環境の無限のシーケンスやカリキュラムを生成する。
本論文は,UEDオートキュリキュラがRL薬を産生し,ロバスト性を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-12-03T16:44:00Z) - Towards Autonomous Cyber Operation Agents: Exploring the Red Case [3.805031560408777]
強化・深部強化学習(RL/DRL)がサイバーネットワーク運用のための自律エージェントの開発に応用されている(CyOps)。
トレーニング環境は、エージェントが学び、達成することを目的とした、高い忠実度でCyOpsをシミュレートする必要があります。
優れたシミュレータは、サイバー環境の極端な複雑さのために達成し難い。
論文 参考訳(メタデータ) (2023-09-05T13:56:31Z) - Enabling A Network AI Gym for Autonomous Cyber Agents [2.789574233231923]
本研究は、強化・深層強化学習(RL/DRL)を適用して、ネットワークサイバーオペレーション(CyOps)のための自律エージェントの実現を目的とする。
必要となるRLトレーニング環境は、実際のネットワークエミュレーションによって達成される高忠実さの必要性と、シミュレーションを使用して最も達成される多数のトレーニングエピソードを実行する必要性のバランスをとる必要があるため、特に困難である。
シミュレーションされたCyGIL-EがシミュレートされたCyGIL-Sを自動生成する統合学習環境であるCyGIL(CyGIL)を開発する。
論文 参考訳(メタデータ) (2023-04-03T20:47:03Z) - Unified Emulation-Simulation Training Environment for Autonomous Cyber
Agents [2.6001628868861504]
本研究は,Cyber Gym for Intelligent Learning(CyGIL)において,高忠実度シミュレータの自動生成ソリューションを提案する。
CyGILは、シミュレートされたCyGIL-EがシミュレートされたCyGIL-Sを自動的に生成する統一されたCyOpトレーニング環境を提供する。
シミュレータ生成をエージェントトレーニングプロセスに統合し、必要なエージェントトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2023-04-03T15:00:32Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。