論文の概要: Practical Fixed-Parameter Algorithms for Defending Active Directory
Style Attack Graphs
- arxiv url: http://arxiv.org/abs/2112.13175v1
- Date: Sat, 25 Dec 2021 02:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:38:18.570034
- Title: Practical Fixed-Parameter Algorithms for Defending Active Directory
Style Attack Graphs
- Title(参考訳): アクティブディレクトリスタイルアタックグラフの実用的固定パラメータアルゴリズム
- Authors: Mingyu Guo, Jialiang Li, Aneta Neumann, Frank Neumann, Hung Nguyen
- Abstract要約: 本稿では,Active Directoryスタイルのアタックグラフに対する最短経路エッジ断面積問題について検討する。
この問題は、1人のディフェンダーと1人のアタッカーの間のスタックルバーグゲームとして定式化されている。
- 参考スコア(独自算出の注目度): 15.172256325612333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Directory is the default security management system for Windows domain
networks. We study the shortest path edge interdiction problem for defending
Active Directory style attack graphs. The problem is formulated as a
Stackelberg game between one defender and one attacker. The attack graph
contains one destination node and multiple entry nodes. The attacker's entry
node is chosen by nature. The defender chooses to block a set of edges limited
by his budget. The attacker then picks the shortest unblocked attack path. The
defender aims to maximize the expected shortest path length for the attacker,
where the expectation is taken over entry nodes.
We observe that practical Active Directory attack graphs have small maximum
attack path lengths and are structurally close to trees. We first show that
even if the maximum attack path length is a constant, the problem is still
$W[1]$-hard with respect to the defender's budget. Having a small maximum
attack path length and a small budget is not enough to design fixed-parameter
algorithms. If we further assume that the number of entry nodes is small, then
we derive a fixed-parameter tractable algorithm.
We then propose two other fixed-parameter algorithms by exploiting the
tree-like features. One is based on tree decomposition and requires a small
tree width. The other assumes a small number of splitting nodes (nodes with
multiple out-going edges). Finally, the last algorithm is converted into a
graph convolutional neural network based heuristic, which scales to larger
graphs with more splitting nodes.
- Abstract(参考訳): Active DirectoryはWindowsドメインネットワークのデフォルトのセキュリティ管理システムである。
アクティブディレクトリスタイルの攻撃グラフを防御するための最短経路エッジ断続問題について検討する。
この問題は、1人のディフェンダーと1人のアタッカーの間のスタックルバーグゲームとして定式化されている。
攻撃グラフは、1つの宛先ノードと複数のエントリノードを含む。
攻撃者の入力ノードは自然に選択される。
ディフェンダーは、予算によって制限された一連のエッジをブロックすることを選ぶ。
攻撃者は最短の非ブロック攻撃経路を選択する。
ディフェンダーは攻撃者にとって期待される最短経路長を最大化することを目指している。
実用的なアクティブディレクトリアタックグラフは攻撃経路の長さが最大で、構造的には木に近い。
まず,最大攻撃経路長が一定であっても,ディフェンダーの予算に関して,問題は依然として$w[1]$-hardであることを示す。
攻撃経路の最大長と予算が小さいため、固定パラメータアルゴリズムを設計するには不十分である。
さらに、エントリノードの数が小さいと仮定すると、固定パラメータ抽出可能なアルゴリズムが導出される。
次に、木のような特徴を活用し、他の2つの固定パラメータアルゴリズムを提案する。
1つは木の分解に基づいており、木幅が小さい。
もう一方は、少数の分割ノード(複数の外部エッジを持つノード)を仮定する。
最後に、最後のアルゴリズムは、より分割されたノードを持つ大きなグラフにスケールする、グラフ畳み込みニューラルネットワークに基づくヒューリスティックに変換される。
関連論文リスト
- Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Simple and Efficient Partial Graph Adversarial Attack: A New Perspective [16.083311332179633]
既存のグローバルアタックメソッドは、グラフ内のすべてのノードをアタックターゲットとして扱う。
攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
PGAは、既存のグラフグローバルアタック手法と比較して、アタック効果とアタック効率の両方で大幅に改善できる。
論文 参考訳(メタデータ) (2023-08-15T15:23:36Z) - Secure Deep Learning-based Distributed Intelligence on Pocket-sized
Drones [75.80952211739185]
パームサイズのナノドロンはエッジノードの魅力的なクラスであるが、その限られた計算資源は大規模なディープラーニングモデルの実行を妨げている。
エッジフォッグ計算のパラダイムを採用することで、計算の一部をフォグにオフロードすることができるが、フォグノードや通信リンクが信頼できない場合、セキュリティ上の懸念が生じる。
ナノドローン上でランダムなサブネットワークを冗長に実行することにより,霧の計算を検証する分散エッジフォッグ実行方式を提案する。
論文 参考訳(メタデータ) (2023-07-04T08:29:41Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。