論文の概要: Weakness Analysis of Cyberspace Configuration Based on Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2007.04614v1
- Date: Thu, 9 Jul 2020 07:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:26:10.708419
- Title: Weakness Analysis of Cyberspace Configuration Based on Reinforcement
Learning
- Title(参考訳): 強化学習に基づくサイバースペース構成の弱さ解析
- Authors: Lei Zhang, Wei Bai, Shize Guo, Shiming Xia, Hongmei Li and Zhisong Pan
- Abstract要約: 本稿では,サイバー空間構成の分析に学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
- 参考スコア(独自算出の注目度): 10.965567770163688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a learning-based approach to analysis cyberspace
configuration. Unlike prior methods, our approach has the ability to learn from
past experience and improve over time. In particular, as we train over a
greater number of agents as attackers, our method becomes better at rapidly
finding attack paths for previously hidden paths, especially in multiple domain
cyberspace. To achieve these results, we pose finding attack paths as a
Reinforcement Learning (RL) problem and train an agent to find multiple domain
attack paths. To enable our RL policy to find more hidden attack paths, we
ground representation introduction an multiple domain action select module in
RL. By designing a simulated cyberspace experimental environment to verify our
method. Our objective is to find more hidden attack paths, to analysis the
weakness of cyberspace configuration. The experimental results show that our
method can find more hidden multiple domain attack paths than existing
baselines methods.
- Abstract(参考訳): 本研究では,サイバー空間構成の分析に学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
特に,攻撃者としてより多くのエージェントを訓練するにつれて,これまで隠されていたパス,特に複数のドメインサイバースペースにおいて,攻撃経路を迅速に見つける方法が向上する。
これらの結果を達成するために,強化学習(rl)問題として攻撃経路の探索を行い,エージェントに複数のドメイン攻撃経路を見つけるように訓練する。
RLポリシーをより隠れた攻撃経路を見つけるために、RLに複数のドメインアクション選択モジュールを導入する。
この手法を検証するために サイバー空間実験環境を 設計することで
我々の目標は、サイバースペース構成の弱点を分析するために、より隠れた攻撃経路を見つけることである。
実験の結果,本手法は既存のベースライン手法よりも隠れた複数のドメイン攻撃経路を見つけることができた。
関連論文リスト
- Multi-UAV Pursuit-Evasion with Online Planning in Unknown Environments by Deep Reinforcement Learning [16.761470423715338]
マルチUAV追跡回避は、UAV群知能にとって重要な課題である。
本研究では,協調戦略学習における部分的可観測性に対処するために,回避者予測強化ネットワークを導入する。
我々は、2段階の報酬改善を通じて実現可能な政策を導出し、ゼロショット方式で実四重項にポリシーを展開する。
論文 参考訳(メタデータ) (2024-09-24T08:40:04Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Understanding Adversarial Attacks on Observations in Deep Reinforcement
Learning [32.12283927682007]
深層強化学習モデルは、観測を操作することで被害者の総報酬を減少させる敵攻撃に対して脆弱である。
関数空間における逆攻撃の問題を修正し、以前の勾配に基づく攻撃をいくつかの部分空間に分割する。
第一段階では、環境をハックして偽装ポリシーを訓練し、最下位の報酬にルーティングするトラジェクトリのセットを発見する。
本手法は,攻撃エージェントの性能に対して,既存の手法よりも厳密な理論上界を提供する。
論文 参考訳(メタデータ) (2021-06-30T07:41:51Z) - Discover the Hidden Attack Path in Multi-domain Cyberspace Based on
Reinforcement Learning [10.532322920133689]
サイバー空間のセキュリティ構成を分析するための学習ベースのアプローチを提示する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
論文 参考訳(メタデータ) (2021-04-15T01:38:51Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Multi-agent navigation based on deep reinforcement learning and
traditional pathfinding algorithm [0.0]
我々は,マルチエージェント衝突回避問題のための新しいフレームワークを開発する。
このフレームワークは、従来のパスフィニングアルゴリズムと強化学習を組み合わせたものだ。
我々のアプローチでは、エージェントはナビゲートするか、パートナーを避けるために簡単な行動をとるかを学ぶ。
論文 参考訳(メタデータ) (2020-12-05T08:56:58Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。