論文の概要: Training Automated Defense Strategies Using Graph-based Cyber Attack
Simulations
- arxiv url: http://arxiv.org/abs/2304.11084v1
- Date: Mon, 17 Apr 2023 07:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:56:17.747416
- Title: Training Automated Defense Strategies Using Graph-based Cyber Attack
Simulations
- Title(参考訳): グラフベースのサイバー攻撃シミュレーションによる防衛戦略の訓練
- Authors: Jakob Nyberg and Pontus Johnson
- Abstract要約: 自動サイバー防御エージェントの実装と評価を行う。
エージェントは、セキュリティアラートを入力として、強化学習を使用して、事前に定義された防御措置を実行するためのポリシーを学ぶ。
実験では、強化学習で訓練されたポリシーを用いた防御剤は、ポリシーを用いた優れたエージェントである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We implemented and evaluated an automated cyber defense agent. The agent
takes security alerts as input and uses reinforcement learning to learn a
policy for executing predefined defensive measures. The defender policies were
trained in an environment intended to simulate a cyber attack. In the
simulation, an attacking agent attempts to capture targets in the environment,
while the defender attempts to protect them by enabling defenses. The
environment was modeled using attack graphs based on the Meta Attack Language
language. We assumed that defensive measures have downtime costs, meaning that
the defender agent was penalized for using them. We also assumed that the
environment was equipped with an imperfect intrusion detection system that
occasionally produces erroneous alerts based on the environment state. To
evaluate the setup, we trained the defensive agent with different volumes of
intrusion detection system noise. We also trained agents with different
attacker strategies and graph sizes. In experiments, the defensive agent using
policies trained with reinforcement learning outperformed agents using
heuristic policies. Experiments also demonstrated that the policies could
generalize across different attacker strategies. However, the performance of
the learned policies decreased as the attack graphs increased in size.
- Abstract(参考訳): 自動サイバー防御エージェントの実装と評価を行った。
エージェントはセキュリティアラートを入力として、強化学習を使用して、事前定義された防御策を実行するポリシを学習する。
防衛政策は、サイバー攻撃をシミュレートするための環境で訓練された。
シミュレーションでは、攻撃するエージェントは環境中の標的を捕獲し、守備側は防御を可能にして標的を守ろうとする。
環境はメタアタック言語に基づくアタックグラフを使用してモデル化された。
防犯対策にはダウンタイムコストがかかると仮定し,防犯剤の使用に対してペナルティが課せられた。
また,環境状態に基づいた誤警報を発生させる不完全な侵入検知システムを備えていたと推定した。
設定を評価するために,侵入検知システムのノイズ量が異なる防御剤を訓練した。
攻撃戦略やグラフサイズの異なるエージェントもトレーニングしました。
実験では、強化学習で訓練されたポリシーを用いた防御剤は、ヒューリスティック・ポリシーを用いた優れたエージェントである。
実験はまた、このポリシーが様々な攻撃戦略を一般化できることを実証した。
しかし,攻撃グラフが大きくなるにつれて,学習方針の性能は低下した。
関連論文リスト
- Optimal Attack and Defense for Reinforcement Learning [12.418400006063218]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - LearnDefend: Learning to Defend against Targeted Model-Poisoning Attacks
on Federated Learning [15.649086996679914]
近年の研究では、入力空間のごく一部を標的とするエッジケース攻撃は、既存の固定防御戦略で対処することがほぼ不可能であることが示された。
本稿では,このような攻撃に対する学習防御戦略を,小さな防衛データセットを用いて設計する。
提案されたフレームワークであるLearnDefendは、クライアント更新が悪意がある確率を推定する。
論文 参考訳(メタデータ) (2023-05-03T10:20:26Z) - Planning for Attacker Entrapment in Adversarial Settings [16.085007590604327]
本研究では,攻撃者の知識を使わずに攻撃者が操作できる環境で作業している攻撃者に対する防衛戦略を生成する枠組みを提案する。
この問題の定式化により、より単純な無限地平線割引MDPとして捉えることができ、MDPの最適方針は、攻撃者の行動に対するディフェンダーの戦略を与える。
論文 参考訳(メタデータ) (2023-03-01T21:08:27Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Adversarial Defense for Automatic Speaker Verification by
Self-Supervised Learning [101.42920161993455]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Policy Teaching in Reinforcement Learning via Environment Poisoning
Attacks [33.41280432984183]
本研究では,攻撃者が学習環境を害し,攻撃者が選択したターゲットポリシーの実行を強制する強化学習に対するセキュリティ上の脅威について検討する。
被害者として、無限水平問題設定における報酬を最大化するポリシーを見つけることを目的としたRLエージェントを考える。
論文 参考訳(メタデータ) (2020-11-21T16:54:45Z) - Policy Teaching via Environment Poisoning: Training-time Adversarial
Attacks against Reinforcement Learning [33.41280432984183]
本研究では,攻撃者が学習環境を害してエージェントに目標ポリシーの実行を強制する強化学習に対するセキュリティ上の脅威について検討する。
被害者として、未報告の無限水平問題設定における平均報酬を最大化するポリシーを見つけることを目的としたRLエージェントを考える。
論文 参考訳(メタデータ) (2020-03-28T23:22:28Z) - On Adaptive Attacks to Adversarial Example Defenses [123.32678153377915]
本稿では、敵の事例に対して、防御に対する適応攻撃を行うために必要な方法論とアプローチを概説する。
これらの分析が、敵の事例に対して適切な防御攻撃を行うためのガイダンスとして役立てられることを期待している。
論文 参考訳(メタデータ) (2020-02-19T18:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。