論文の概要: Weakness Analysis of Cyberspace Configuration Based on Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2007.04614v1
- Date: Thu, 9 Jul 2020 07:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:26:10.708419
- Title: Weakness Analysis of Cyberspace Configuration Based on Reinforcement
Learning
- Title(参考訳): 強化学習に基づくサイバースペース構成の弱さ解析
- Authors: Lei Zhang, Wei Bai, Shize Guo, Shiming Xia, Hongmei Li and Zhisong Pan
- Abstract要約: 本稿では,サイバー空間構成の分析に学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
- 参考スコア(独自算出の注目度): 10.965567770163688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a learning-based approach to analysis cyberspace
configuration. Unlike prior methods, our approach has the ability to learn from
past experience and improve over time. In particular, as we train over a
greater number of agents as attackers, our method becomes better at rapidly
finding attack paths for previously hidden paths, especially in multiple domain
cyberspace. To achieve these results, we pose finding attack paths as a
Reinforcement Learning (RL) problem and train an agent to find multiple domain
attack paths. To enable our RL policy to find more hidden attack paths, we
ground representation introduction an multiple domain action select module in
RL. By designing a simulated cyberspace experimental environment to verify our
method. Our objective is to find more hidden attack paths, to analysis the
weakness of cyberspace configuration. The experimental results show that our
method can find more hidden multiple domain attack paths than existing
baselines methods.
- Abstract(参考訳): 本研究では,サイバー空間構成の分析に学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
特に,攻撃者としてより多くのエージェントを訓練するにつれて,これまで隠されていたパス,特に複数のドメインサイバースペースにおいて,攻撃経路を迅速に見つける方法が向上する。
これらの結果を達成するために,強化学習(rl)問題として攻撃経路の探索を行い,エージェントに複数のドメイン攻撃経路を見つけるように訓練する。
RLポリシーをより隠れた攻撃経路を見つけるために、RLに複数のドメインアクション選択モジュールを導入する。
この手法を検証するために サイバー空間実験環境を 設計することで
我々の目標は、サイバースペース構成の弱点を分析するために、より隠れた攻撃経路を見つけることである。
実験の結果,本手法は既存のベースライン手法よりも隠れた複数のドメイン攻撃経路を見つけることができた。
関連論文リスト
- Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Understanding Adversarial Attacks on Observations in Deep Reinforcement
Learning [32.12283927682007]
深層強化学習モデルは、観測を操作することで被害者の総報酬を減少させる敵攻撃に対して脆弱である。
関数空間における逆攻撃の問題を修正し、以前の勾配に基づく攻撃をいくつかの部分空間に分割する。
第一段階では、環境をハックして偽装ポリシーを訓練し、最下位の報酬にルーティングするトラジェクトリのセットを発見する。
本手法は,攻撃エージェントの性能に対して,既存の手法よりも厳密な理論上界を提供する。
論文 参考訳(メタデータ) (2021-06-30T07:41:51Z) - Discover the Hidden Attack Path in Multi-domain Cyberspace Based on
Reinforcement Learning [10.532322920133689]
サイバー空間のセキュリティ構成を分析するための学習ベースのアプローチを提示する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
論文 参考訳(メタデータ) (2021-04-15T01:38:51Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Multi-agent navigation based on deep reinforcement learning and
traditional pathfinding algorithm [0.0]
我々は,マルチエージェント衝突回避問題のための新しいフレームワークを開発する。
このフレームワークは、従来のパスフィニングアルゴリズムと強化学習を組み合わせたものだ。
我々のアプローチでは、エージェントはナビゲートするか、パートナーを避けるために簡単な行動をとるかを学ぶ。
論文 参考訳(メタデータ) (2020-12-05T08:56:58Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。