論文の概要: Defending Active Directory by Combining Neural Network based Dynamic
Program and Evolutionary Diversity Optimisation
- arxiv url: http://arxiv.org/abs/2204.03397v3
- Date: Wed, 4 Jan 2023 12:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 23:55:48.464523
- Title: Defending Active Directory by Combining Neural Network based Dynamic
Program and Evolutionary Diversity Optimisation
- Title(参考訳): ニューラルネットワークに基づく動的プログラムと進化的多様性最適化を組み合わせたアクティブディレクトリの保存
- Authors: Diksha Goel, Max Ward, Aneta Neumann, Frank Neumann, Hung Nguyen,
Mingyu Guo
- Abstract要約: 我々は、AD攻撃グラフ上で、1人の攻撃者と1人のディフェンダーの間でスタックルバーグのゲームモデルを研究する。
攻撃者は発見される前に目的地に到達する確率を最大化する。
ディフェンダーの任務は、攻撃者が成功する確率を減らすために、一定数のエッジをブロックすることである。
- 参考スコア(独自算出の注目度): 14.326083603965278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Directory (AD) is the default security management system for Windows
domain networks. We study a Stackelberg game model between one attacker and one
defender on an AD attack graph. The attacker initially has access to a set of
entry nodes. The attacker can expand this set by strategically exploring edges.
Every edge has a detection rate and a failure rate. The attacker aims to
maximize their chance of successfully reaching the destination before getting
detected. The defender's task is to block a constant number of edges to
decrease the attacker's chance of success. We show that the problem is #P-hard
and, therefore, intractable to solve exactly. We convert the attacker's problem
to an exponential sized Dynamic Program that is approximated by a Neural
Network (NN). Once trained, the NN provides an efficient fitness function for
the defender's Evolutionary Diversity Optimisation (EDO). The diversity
emphasis on the defender's solution provides a diverse set of training samples,
which improves the training accuracy of our NN for modelling the attacker. We
go back and forth between NN training and EDO. Experimental results show that
for R500 graph, our proposed EDO based defense is less than 1% away from the
optimal defense.
- Abstract(参考訳): Active Directory (AD)はWindowsドメインネットワークのデフォルトのセキュリティ管理システムである。
我々は、AD攻撃グラフ上で、1人の攻撃者と1人のディフェンダーの間でスタックルバーグのゲームモデルを研究する。
攻撃者は最初、エントリノードのセットにアクセスする。
攻撃者はエッジを戦略的に探索することでこのセットを拡張することができる。
すべてのエッジは検出率と失敗率を持っています。
攻撃者は発見される前に目的地に到達する確率を最大化する。
ディフェンダーの任務は、攻撃者の成功の可能性を減らすために一定数のエッジをブロックすることである。
問題は #P-hard であり、従って、正確に解くのは難解である。
我々は,攻撃者の問題をニューラルネットワーク(NN)で近似した指数サイズの動的プログラムに変換する。
トレーニングが完了すると、NNはディフェンダーの進化的多様性最適化(EDO)に効率的なフィットネス機能を提供する。
ディフェンダーのソリューションにおける多様性の強調は、さまざまなトレーニングサンプルを提供し、攻撃者をモデリングするためのnnのトレーニング精度を向上させる。
NNトレーニングとEDOの間を行き来します。
実験の結果, R500グラフの場合, 提案したEDOベースの防御は最適防御から1%以下であることがわかった。
関連論文リスト
- Optimizing Cyber Response Time on Temporal Active Directory Networks Using Decoys [4.2671394819888455]
攻撃の可能性を検出するために,Microsoft Active Directory (AD) ネットワークにデコイを配置する問題について検討する。
本稿では、時間的攻撃グラフにおけるデコイ配置の有効性を測定するために、応答時間と呼ばれる新しい指標を提案する。
我々の目標は、最悪の攻撃経路に対するディフェンダーの対応時間を最大化することです。
論文 参考訳(メタデータ) (2024-03-27T00:05:48Z) - Adversarial Deep Reinforcement Learning for Cyber Security in Software
Defined Networks [0.0]
本稿では、より堅牢なエージェントの訓練に、自律的な攻撃的アプローチを深層強化学習(DRL)に活用することの影響に焦点を当てる。
2つのアルゴリズム、Double Deep Q-Networks(DDQN)とNeural Episodic Control to Deep Q-Network(NEC2DQNまたはN2D)を比較した。
論文 参考訳(メタデータ) (2023-08-09T12:16:10Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Evolving Reinforcement Learning Environment to Minimize Learner's
Achievable Reward: An Application on Hardening Active Directory Systems [15.36968083280611]
進化的多様性最適化を応用して,多様な環境を育成する。
特定のアプリケーションであるActive Directoryにフォーカスすることで、アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-08T12:39:40Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Game Theory for Adversarial Attacks and Defenses [0.0]
敵攻撃は、データセットのサンプルに小さなが故意に最悪の摂動を適用することで、敵の入力を生成することができる。
いくつかの敵防衛技術は、モデルの安全性と堅牢性を改善し、攻撃を避けるために開発されている。
論文 参考訳(メタデータ) (2021-10-08T07:38:33Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense [3.3504365823045035]
グラフニューラルネットワーク(gnns)は、さまざまなグラフ表現学習タスクにおける最先端のパフォーマンスにより、大きな注目を集めている。
近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことで、GNNを騙すことができる。
既存の攻撃アルゴリズムの多くは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータへのアクセスを必要とする。
論文 参考訳(メタデータ) (2021-04-30T15:30:47Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。