論文の概要: Using Cyber Terrain in Reinforcement Learning for Penetration Testing
- arxiv url: http://arxiv.org/abs/2108.07124v1
- Date: Mon, 16 Aug 2021 14:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:41:37.313054
- Title: Using Cyber Terrain in Reinforcement Learning for Penetration Testing
- Title(参考訳): 侵入試験のための強化学習におけるサイバー地形の利用
- Authors: Rohit Gangupantulu, Tyler Cody, Paul Park, Abdul Rahman, Logan
Eisenbeiser, Dan Radke, Ryan Clark
- Abstract要約: 強化学習 (Reinforcement Learning, RL) は, 浸透試験のためのグラフ攻撃に応用されている。
地形解析は,RL のグラフに現実性をもたらすことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has been applied to attack graphs for penetration
testing, however, trained agents do not reflect reality because the attack
graphs lack operational nuances typically captured within the intelligence
preparation of the battlefield (IPB) that include notions of (cyber) terrain.
In particular, current practice constructs attack graphs exclusively using the
Common Vulnerability Scoring System (CVSS) and its components. We present
methods for constructing attack graphs using notions from IPB on cyber terrain
analysis of obstacles, avenues of approach, key terrain, observation and fields
of fire, and cover and concealment. We demonstrate our methods on an example
where firewalls are treated as obstacles and represented in (1) the reward
space and (2) the state dynamics. We show that terrain analysis can be used to
bring realism to attack graphs for RL.
- Abstract(参考訳): 強化学習 (Reinforcement Learning, RL) は、侵入試験のための攻撃グラフに適用されているが、訓練されたエージェントは、(サイバー)地形の概念を含む戦場(IPB)のインテリジェンス準備で取得される運用上のニュアンスを欠いているため、現実を反映していない。
特に、現在のプラクティスでは、Common Vulnerability Scoring System(CVSS)とそのコンポーネントのみを使用してアタックグラフを構築している。
本稿では,icbによる障害物のサイバー地形解析,接近路,重要地形,観測と火の場,カバーと隠蔽に関する概念を用いて,攻撃グラフを構築する手法を提案する。
本稿では,ファイアウォールを障害物として扱い,(1)報酬空間と(2)状態力学で表される例を示す。
地形解析は,RLのグラフに現実性をもたらすことができることを示す。
関連論文リスト
- Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Attacks on Node Attributes in Graph Neural Networks [32.40598187698689]
本研究では,特徴に基づく敵対攻撃の適用を通じて,グラフモデルの脆弱性について検討する。
以上の結果から,GAD(Projected Gradient Descent)を用いた決定時間攻撃は,平均ノード埋め込みとグラフコントラスト学習戦略を用いた中毒攻撃に比べ,より強力であることが示唆された。
論文 参考訳(メタデータ) (2024-02-19T17:52:29Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - Learning Decentralized Strategies for a Perimeter Defense Game with
Graph Neural Networks [111.9039128130633]
グラフニューラルネットワークに基づく学習フレームワークを設計し、ディフェンダーのローカル認識と通信グラフからディフェンダーの行動へのマッピングを学習する。
提案するネットワークは,専門家の方針に近づき,より多くの侵入者を捕捉することで,他のベースラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-24T22:48:51Z) - Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks [27.317964031440546]
グレーボックスグラフ攻撃は、被害者モデルに関する限られた知識を持つ攻撃を使用することで、被害者モデルのパフォーマンスを損なうことを目的としている。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
論文 参考訳(メタデータ) (2021-10-20T10:47:34Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Backdoor Attacks on the DNN Interpretation System [16.587968446342995]
ディープニューラルネットワーク(DNN)の内部動作を理解するためには、解釈可能性が不可欠である
我々は,入射トリガのみの入力画像に対して,ネットワークが生成するサリエンシマップを変更するバックドアアタックを設計する。
非信頼なソースによって開発されたディープラーニングモデルをデプロイする場合、当社の攻撃は深刻なセキュリティ上の脅威となる。
論文 参考訳(メタデータ) (2020-11-21T01:54:45Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。