論文の概要: Beyond CAGE: Investigating Generalization of Learned Autonomous Network
Defense Policies
- arxiv url: http://arxiv.org/abs/2211.15557v2
- Date: Wed, 30 Nov 2022 14:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:19:44.297784
- Title: Beyond CAGE: Investigating Generalization of Learned Autonomous Network
Defense Policies
- Title(参考訳): beyond cage: 学習された自律ネットワーク防衛政策の一般化を調査
- Authors: Melody Wolk, Andy Applebaum, Camron Dennler, Patrick Dwyer, Marina
Moskowitz, Harold Nguyen, Nicole Nichols, Nicole Park, Paul Rachwalski, Frank
Rau, Adrian Webster
- Abstract要約: 本研究は,CAGEチャレンジの第2版で実施された強化学習アプローチを評価する。
アンサンブルRL技術は,我々の他のモデルより優れ,競争において第2位である。
目に見えない環境では、我々のアプローチはすべて悪化し、環境の変化のタイプによって様々な劣化が生じます。
- 参考スコア(独自算出の注目度): 0.8785883427835897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in reinforcement learning (RL) have inspired new directions in
intelligent automation of network defense. However, many of these advancements
have either outpaced their application to network security or have not
considered the challenges associated with implementing them in the real-world.
To understand these problems, this work evaluates several RL approaches
implemented in the second edition of the CAGE Challenge, a public competition
to build an autonomous network defender agent in a high-fidelity network
simulator. Our approaches all build on the Proximal Policy Optimization (PPO)
family of algorithms, and include hierarchical RL, action masking, custom
training, and ensemble RL. We find that the ensemble RL technique performs
strongest, outperforming our other models and taking second place in the
competition. To understand applicability to real environments we evaluate each
method's ability to generalize to unseen networks and against an unknown attack
strategy. In unseen environments, all of our approaches perform worse, with
degradation varied based on the type of environmental change. Against an
unknown attacker strategy, we found that our models had reduced overall
performance even though the new strategy was less efficient than the ones our
models trained on. Together, these results highlight promising research
directions for autonomous network defense in the real world.
- Abstract(参考訳): 強化学習(RL)の進歩は、ネットワーク防御のインテリジェントな自動化に新たな方向性をもたらした。
しかし、これらの進歩の多くは、自分たちのアプリケーションをネットワークセキュリティに上回っているか、現実の世界でそれを実装する際の課題を考慮していない。
これらの問題を理解するために,本研究では,高忠実度ネットワークシミュレータを用いた自律型ネットワークディフェンサエージェント構築のための公開競争であるCAGE Challengeの第2版で実施されたいくつかのRLアプローチを評価する。
我々のアプローチはすべて、アルゴリズムのPPO(Proximal Policy Optimization)ファミリに基づいており、階層的RL、アクションマスキング、カスタムトレーニング、アンサンブルRLを含んでいる。
アンサンブルRL技術は,我々の他のモデルより優れ,競争において第2位である。
実環境への適用性を理解するため,未知のネットワークや未知の攻撃戦略に対して,各手法の一般化能力を評価する。
目に見えない環境では, 環境変化のタイプによって劣化が変化するなど, 全てのアプローチが悪化する。
未知の攻撃戦略に対して、新しい戦略はトレーニングしたモデルよりも効率的ではありませんでしたが、我々のモデルは全体的なパフォーマンスを低下させました。
これらの結果は、現実世界における自律的ネットワーク防衛のための有望な研究方向を強調する。
関連論文リスト
- Hierarchical Multi-agent Reinforcement Learning for Cyber Network Defense [7.967738380932909]
本稿では,サイバー防御タスクをネットワーク調査やホストリカバリといった特定のサブタスクに分解する階層的PPOアーキテクチャを提案する。
我々のアプローチは、ドメインの専門知識が強化されたPPOを使用して、各サブタスクのサブ政治を訓練することである。
これらのサブ政治は、複雑なネットワーク防御タスクを解決するためにそれらの選択を調整するマスターディフェンスポリシーによって活用される。
論文 参考訳(メタデータ) (2024-10-22T18:35:05Z) - Mastering the Digital Art of War: Developing Intelligent Combat Simulation Agents for Wargaming Using Hierarchical Reinforcement Learning [0.0]
対象とする観察抽象化、マルチモデル統合、ハイブリッドAIフレームワーク、階層的な強化学習フレームワークなど、包括的なアプローチを提案する。
線形空間減衰を用いた局所的な観測抽象化は,RL問題を単純化し,計算効率を向上し,従来の大域的観測法よりも優れた有効性を示す。
我々のハイブリッドAIフレームワークは、スクリプトエージェントとRLを同期させ、高レベルの決定にRLを、低レベルのタスクにスクリプトエージェントを活用し、適応性、信頼性、パフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-08-23T18:50:57Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - REIN-2: Giving Birth to Prepared Reinforcement Learning Agents Using
Reinforcement Learning Agents [0.0]
本稿では,課題学習の目的を課題(あるいは課題の集合)の目的にシフトさせるメタラーニング手法を提案する。
我々のモデルであるREIN-2は、RLフレームワーク内で構成されたメタ学習スキームであり、その目的は、他のRLエージェントの作り方を学ぶメタRLエージェントを開発することである。
従来の最先端のDeep RLアルゴリズムと比較して、実験結果は、人気のあるOpenAI Gym環境において、我々のモデルの顕著な性能を示している。
論文 参考訳(メタデータ) (2021-10-11T10:13:49Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z) - The Adversarial Resilience Learning Architecture for AI-based Modelling,
Exploration, and Operation of Complex Cyber-Physical Systems [0.0]
本稿では、複雑な環境チェックとレジリエントな操作に対する新しいアプローチを定式化する、ARL(Adversarial Learning)の概念について述べる。
ARLのクインテッサンスは、システムを探究し、ドメインの知識なしに互いに訓練するエージェントの両方にある。
本稿では、モデルベースDRLベースのアルゴリズムと同様に、広範囲のモデルフリーを使用できるARLソフトウェアアーキテクチャを紹介する。
論文 参考訳(メタデータ) (2020-05-27T19:19:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。