論文の概要: Raij\=u: Reinforcement Learning-Guided Post-Exploitation for Automating
Security Assessment of Network Systems
- arxiv url: http://arxiv.org/abs/2309.15518v1
- Date: Wed, 27 Sep 2023 09:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:35:24.362080
- Title: Raij\=u: Reinforcement Learning-Guided Post-Exploitation for Automating
Security Assessment of Network Systems
- Title(参考訳): raij\=u:ネットワークシステムのセキュリティ評価を自動化するための強化学習指導後探索
- Authors: Van-Hau Pham, Hien Do Hoang, Phan Thanh Trung, Van Dinh Quoc,
Trong-Nghia To, Phan The Duy
- Abstract要約: Raij=uフレームワークは強化学習駆動の自動化アプローチである。
我々は2つのRLアルゴリズムを実装し、知的行動を行うことのできる特殊エージェントを訓練する。
エージェントは55段階未満の攻撃で84%以上の攻撃を成功させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In order to assess the risks of a network system, it is important to
investigate the behaviors of attackers after successful exploitation, which is
called post-exploitation. Although there are various efficient tools supporting
post-exploitation implementation, no application can automate this process.
Most of the steps of this process are completed by experts who have profound
knowledge of security, known as penetration testers or pen-testers. To this
end, our study proposes the Raij\=u framework, a Reinforcement Learning
(RL)-driven automation approach that assists pen-testers in quickly
implementing the process of post-exploitation for security-level evaluation in
network systems. We implement two RL algorithms, Advantage Actor-Critic (A2C)
and Proximal Policy Optimization (PPO), to train specialized agents capable of
making intelligent actions, which are Metasploit modules to automatically
launch attacks of privileges escalation, gathering hashdump, and lateral
movement. By leveraging RL, we aim to empower these agents with the ability to
autonomously select and execute actions that can exploit vulnerabilities in
target systems. This approach allows us to automate certain aspects of the
penetration testing workflow, making it more efficient and responsive to
emerging threats and vulnerabilities. The experiments are performed in four
real environments with agents trained in thousands of episodes. The agents
automatically select actions and launch attacks on the environments and achieve
over 84\% of successful attacks with under 55 attack steps given. Moreover, the
A2C algorithm has proved extremely effective in the selection of proper actions
for automation of post-exploitation.
- Abstract(参考訳): ネットワークシステムのリスクを評価するためには,探索後,攻撃者の行動を調べることが重要である。
爆発後の実装をサポートする様々な効率的なツールがあるが、このプロセスを自動化できるアプリケーションはない。
このプロセスのほとんどのステップは、侵入テスタやペンテスタとして知られるセキュリティに関する深い知識を持つ専門家によって完了されます。
そこで本研究では,ネットワークシステムにおけるセキュリティレベル評価のためのポストエクスプロイテーションプロセスの迅速な実装において,ペンテスタを支援するRL(Reinforcement Learning)による自動化手法であるRaij\=uフレームワークを提案する。
我々は2つのrlアルゴリズムである advantage actor-critic (a2c) と proximal policy optimization (ppo) を実装し、権限エスカレーション、ハッシュダンプの収集、横動きを自動的に起動するメタスプロイトモジュールであるインテリジェントアクションを作成可能な特殊エージェントを訓練する。
RLを活用することで、ターゲットシステムにおける脆弱性を悪用するアクションを自律的に選択し、実行できるようにする。
このアプローチにより、侵入テストワークフローの特定の側面を自動化でき、新たな脅威や脆弱性に対してより効率的で応答性が得られます。
実験は4つの実環境で行われ、エージェントは何千ものエピソードで訓練される。
エージェントは自動的に環境に対するアクションを選択し、55以下の攻撃手順で84%以上の攻撃を成功させる。
さらに、A2Cアルゴリズムは、探索後の自動化のための適切なアクションの選択に極めて有効であることが証明された。
関連論文リスト
- Leveraging Reinforcement Learning in Red Teaming for Advanced Ransomware Attack Simulations [7.361316528368866]
本稿では,ランサムウェア攻撃のシミュレーションに強化学習(RL)を利用する新しい手法を提案する。
実世界のネットワークを模倣するシミュレーション環境でRLエージェントを訓練することにより、効果的な攻撃戦略を迅速に学習することができる。
152ホストのサンプルネットワークの実験結果から,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2024-06-25T14:16:40Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Catch Me If You Can: Improving Adversaries in Cyber-Security With
Q-Learning Algorithms [0.7349727826230861]
攻撃者は攻撃を偽装し、複数の行動からなる攻撃を発射するが、検出は困難である。
本研究では,攻撃エージェントと環境のモデルを提案し,その性能をQ-Learning,Naive Q-Learning,DoubleQ-Learningを用いて評価する。
その結果、DoubleQ-Learningエージェントは、その目標を70%のインタラクションで達成することで、最高の全体的なパフォーマンス率を持つことがわかった。
論文 参考訳(メタデータ) (2023-02-07T21:57:59Z) - Learning to Generate All Feasible Actions [4.333208181196761]
アクションマッピングは、学習プロセスを2つのステップに分割する新しいアプローチである。
本稿では、実現可能性モデルの自己教師型クエリにより、実現可能なすべてのアクションを生成することを学ぶことで、実現可能性部分に焦点を当てる。
エージェントが接続不能な実行可能なアクションセット間でアクションを生成する能力を示す。
論文 参考訳(メタデータ) (2023-01-26T23:15:51Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Behaviour-Diverse Automatic Penetration Testing: A Curiosity-Driven
Multi-Objective Deep Reinforcement Learning Approach [3.5071575478443435]
侵入テストは、実際のアクティブな敵をエミュレートすることで、ターゲットネットワークのセキュリティを評価する上で重要な役割を果たす。
深層強化学習(Deep Reinforcement Learning)は,浸透テストのプロセスを自動化するための,有望なソリューションだと考えられている。
我々は,チェビシェフ分解批判者に対して,侵入試験における異なる目的のバランスをとる多様な敵戦略を見出すことを提案する。
論文 参考訳(メタデータ) (2022-02-22T02:34:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。