論文の概要: Deep hierarchical reinforcement agents for automated penetration testing
- arxiv url: http://arxiv.org/abs/2109.06449v1
- Date: Tue, 14 Sep 2021 05:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:47:50.806565
- Title: Deep hierarchical reinforcement agents for automated penetration testing
- Title(参考訳): 自動浸透試験のための深層構造強化剤
- Authors: Khuong Tran (1), Ashlesha Akella (1), Maxwell Standen (2), Junae Kim
(2), David Bowman (2), Toby Richer (2), Chin-Teng Lin (1) ((1) Institution
One, (2) Institution Two)
- Abstract要約: 本稿では,階層構造を持つHA-DRLを用いた新しい深層強化学習アーキテクチャを提案する。
提案アーキテクチャは,従来の深層学習エージェントよりも高速かつ安定に最適な攻撃策を見出すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Penetration testing the organised attack of a computer system in order to
test existing defences has been used extensively to evaluate network security.
This is a time consuming process and requires in-depth knowledge for the
establishment of a strategy that resembles a real cyber-attack. This paper
presents a novel deep reinforcement learning architecture with hierarchically
structured agents called HA-DRL, which employs an algebraic action
decomposition strategy to address the large discrete action space of an
autonomous penetration testing simulator where the number of actions is
exponentially increased with the complexity of the designed cybersecurity
network. The proposed architecture is shown to find the optimal attacking
policy faster and more stably than a conventional deep Q-learning agent which
is commonly used as a method to apply artificial intelligence in automatic
penetration testing.
- Abstract(参考訳): 侵入テスト 既存の防御をテストするためにコンピュータシステムの組織的な攻撃は、ネットワークセキュリティを評価するために広く使われている。
これは時間を要するプロセスであり、真のサイバー攻撃に似た戦略の確立には深い知識を必要とする。
本稿では,ha-drlと呼ばれる階層構造エージェントを用いた新しい深層強化学習アーキテクチャを提案する。ha-drlは,設計したサイバーセキュリティネットワークの複雑さにより行動数が指数関数的に増加する自律的浸透テストシミュレータの大規模離散的行動空間に対処するために,代数的行動分解戦略を用いる。
提案するアーキテクチャは,人工知能を自動浸透試験に応用する方法として広く用いられている,従来のディープq学習エージェントよりも高速かつ安定的に最適な攻撃方針を見出した。
関連論文リスト
- Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Autonomous Attack Mitigation for Industrial Control Systems [25.894883701063055]
サイバー攻撃からコンピュータネットワークを守るには、警告や脅威情報に対するタイムリーな対応が必要である。
本稿では,大規模産業制御ネットワークにおける自律応答と回復に対する深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-03T18:08:06Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Reinforcement Learning for Industrial Control Network Cyber Security
Orchestration [27.781221210925498]
本研究では,大規模産業用制御ネットワークにおけるサイバーセキュリティオーケストレーション問題を解決するため,深層強化学習をスケールする手法を提案する。
本稿では,保護下のネットワークのサイズに不変な,大きさの複雑さを持つ新しい注目型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-09T18:44:17Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Simulating SQL Injection Vulnerability Exploitation Using Q-Learning
Reinforcement Learning Agents [0.0]
我々は,この問題をセキュリティキャプチャ・ザ・フレーグの課題として位置づけることで,ofsqlインジェクション攻撃のダイナミクスを単純化することを検討する。
私たちは異なる強化学習エージェントをデプロイし、効果的なポリシーを学習して実行します。
その結果、セキュリティ環境における強化学習の可能性と限界の理解に寄与することを目指しています。
論文 参考訳(メタデータ) (2021-01-08T17:19:21Z) - Automated Adversary Emulation for Cyber-Physical Systems via
Reinforcement Learning [4.763175424744536]
我々は,サイバー物理システムに対する敵エミュレーションに対するドメイン認識の自動化手法を開発した。
我々は、マルコフ決定プロセス(MDP)モデルを定式化し、ハイブリッドアタックグラフ上で最適なアタックシーケンスを決定する。
モデルベースおよびモデルフリー強化学習(RL)法を用いて,離散連続型MDPをトラクタブルな方法で解く。
論文 参考訳(メタデータ) (2020-11-09T18:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。