論文の概要: Evaluation of Reinforcement Learning for Autonomous Penetration Testing using A3C, Q-learning and DQN
- arxiv url: http://arxiv.org/abs/2407.15656v1
- Date: Mon, 22 Jul 2024 14:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 14:40:28.541769
- Title: Evaluation of Reinforcement Learning for Autonomous Penetration Testing using A3C, Q-learning and DQN
- Title(参考訳): A3C, Q-learning, DQNを用いた自律貫入試験における強化学習の評価
- Authors: Norman Becker, Daniel Reti, Evridiki V. Ntagiou, Marcus Wallum, Hans D. Schotten,
- Abstract要約: ネットワーク攻撃シミュレータ(NASim)は、3つの事前定義されたセキュリティシナリオを解決するために強化学習エージェントを訓練するための環境として使用された。
Q-learning、DQN、A3Cといったアルゴリズムが使われ、A3Cはすべてのシナリオを解き、一般化を実現した。
トレーニングは比較的小さなシナリオで実施され, エージェントの状態と動作空間は小さいが, RLエージェントによる浸透試験を成功させることができた。
- 参考スコア(独自算出の注目度): 4.0271595421938775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Penetration testing is the process of searching for security weaknesses by simulating an attack. It is usually performed by experienced professionals, where scanning and attack tools are applied. By automating the execution of such tools, the need for human interaction and decision-making could be reduced. In this work, a Network Attack Simulator (NASim) was used as an environment to train reinforcement learning agents to solve three predefined security scenarios. These scenarios cover techniques of exploitation, post-exploitation and wiretapping. A large hyperparameter grid search was performed to find the best hyperparameter combinations. The algorithms Q-learning, DQN and A3C were used, whereby A3C was able to solve all scenarios and achieve generalization. In addition, A3C could solve these scenarios with fewer actions than the baseline automated penetration testing. Although the training was performed on rather small scenarios and with small state and action spaces for the agents, the results show that a penetration test can successfully be performed by the RL agent.
- Abstract(参考訳): 侵入テストは、攻撃をシミュレートしてセキュリティの弱点を探すプロセスである。
通常、熟練した専門家によって行われ、スキャンとアタックツールが適用される。
このようなツールの実行を自動化することで、ヒューマンインタラクションや意思決定の必要性が軽減される可能性がある。
本研究では、ネットワーク攻撃シミュレータ(NASim)を用いて、強化学習エージェントを訓練し、3つの事前定義されたセキュリティシナリオを解決する環境とした。
これらのシナリオは、エクスプロイト、ポストエクスプロイテーション、ワイヤタッピングのテクニックをカバーしている。
最適なハイパーパラメータの組み合わせを見つけるために、大規模なハイパーパラメータグリッドサーチが実施された。
Q-learning、DQN、A3Cといったアルゴリズムが使われ、A3Cはすべてのシナリオを解き、一般化を実現した。
さらに、A3Cはこれらのシナリオを、ベースラインの自動浸透テストよりも少ないアクションで解決することができる。
トレーニングは比較的小さなシナリオで実施され, エージェントの状態と動作空間は小さいが, RLエージェントによる浸透試験を成功させることができた。
関連論文リスト
- Raij\=u: Reinforcement Learning-Guided Post-Exploitation for Automating
Security Assessment of Network Systems [0.0]
Raij=uフレームワークは強化学習駆動の自動化アプローチである。
我々は2つのRLアルゴリズムを実装し、知的行動を行うことのできる特殊エージェントを訓練する。
エージェントは55段階未満の攻撃で84%以上の攻撃を成功させる。
論文 参考訳(メタデータ) (2023-09-27T09:36:22Z) - Getting pwn'd by AI: Penetration Testing with Large Language Models [0.0]
本稿では,GPT3.5のような大規模言語モデルによるAIスパーリングパートナーによる浸透テストの強化の可能性について検討する。
セキュリティテストの課題のためのハイレベルなタスクプランニングと、脆弱な仮想マシン内での低レベルな脆弱性ハンティングである。
論文 参考訳(メタデータ) (2023-07-24T19:59:22Z) - Catch Me If You Can: Improving Adversaries in Cyber-Security With
Q-Learning Algorithms [0.7349727826230861]
攻撃者は攻撃を偽装し、複数の行動からなる攻撃を発射するが、検出は困難である。
本研究では,攻撃エージェントと環境のモデルを提案し,その性能をQ-Learning,Naive Q-Learning,DoubleQ-Learningを用いて評価する。
その結果、DoubleQ-Learningエージェントは、その目標を70%のインタラクションで達成することで、最高の全体的なパフォーマンス率を持つことがわかった。
論文 参考訳(メタデータ) (2023-02-07T21:57:59Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Scalable Evaluation of Multi-Agent Reinforcement Learning with Melting
Pot [71.28884625011987]
Melting PotはMARL評価スイートで、強化学習を使用して、新しいテストシナリオを作成するのに必要な人的労力を削減する。
幅広い研究トピックをカバーする80以上のユニークなテストシナリオを作成しました。
これらのテストシナリオを標準的なMARLトレーニングアルゴリズムに適用し、Melting Potがトレーニングのパフォーマンスだけでは明らかでない弱点をいかに明らかにするかを実証する。
論文 参考訳(メタデータ) (2021-07-14T17:22:14Z) - MT3: Meta Test-Time Training for Self-Supervised Test-Time Adaption [69.76837484008033]
ディープラーニングの未解決の問題は、ニューラルネットワークがテスト時間中のドメインシフトに対処する能力である。
メタラーニング、自己監督、テストタイムトレーニングを組み合わせて、目に見えないテスト分布に適応する方法を学びます。
この手法はcifar-10による画像分類ベンチマークの最先端結果を大幅に改善する。
論文 参考訳(メタデータ) (2021-03-30T09:33:38Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Towards Automated Safety Coverage and Testing for Autonomous Vehicles
with Reinforcement Learning [0.3683202928838613]
検証は、システムが日々の運転で遭遇する可能性のあるシナリオや状況において、自動運転車システムをテストに投入する。
本稿では,AVソフトウェア実装における障害事例と予期せぬ交通状況を生成するために強化学習(RL)を提案する。
論文 参考訳(メタデータ) (2020-05-22T19:00:38Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。