論文の概要: Discovering Exfiltration Paths Using Reinforcement Learning with Attack
Graphs
- arxiv url: http://arxiv.org/abs/2201.12416v1
- Date: Fri, 28 Jan 2022 21:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 20:02:27.964669
- Title: Discovering Exfiltration Paths Using Reinforcement Learning with Attack
Graphs
- Title(参考訳): 攻撃グラフを用いた強化学習による濾過経路の検出
- Authors: Tyler Cody, Abdul Rahman, Christopher Redino, Lanxiao Huang, Ryan
Clark, Akshay Kakkar, Deepak Kushwaha, Paul Park, Peter Beling, Edward Bowen
- Abstract要約: この研究は、最適経路を計算するという目標に焦点をあてた、以前のクラウンジュエリー(CJ)識別に基づいている。
その結果,大規模ネットワーク環境における有望な性能が示された。
- 参考スコア(独自算出の注目度): 0.3431096786139342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL), in conjunction with attack graphs and cyber
terrain, are used to develop reward and state associated with determination of
optimal paths for exfiltration of data in enterprise networks. This work builds
on previous crown jewels (CJ) identification that focused on the target goal of
computing optimal paths that adversaries may traverse toward compromising CJs
or hosts within their proximity. This work inverts the previous CJ approach
based on the assumption that data has been stolen and now must be quietly
exfiltrated from the network. RL is utilized to support the development of a
reward function based on the identification of those paths where adversaries
desire reduced detection. Results demonstrate promising performance for a
sizable network environment.
- Abstract(参考訳): 強化学習 (Reinforcement Learning, RL) は, 攻撃グラフやサイバー地形とともに, 企業ネットワークにおけるデータ流出の最適な経路を決定するための報酬と状態を開発するために用いられる。
この研究は以前のクラウンジュエリー(CJ)識別に基づいており、敵が近くのCJやホストを妥協する最適な経路を計算することの目標に焦点を当てている。
この作業は、データが盗まれ、ネットワークから静かに流出しなければならないという仮定に基づいて、以前のCJアプローチを逆転させる。
RLは、敵が検出を減らしたいと願う経路の識別に基づいて報酬関数の開発を支援するために利用される。
その結果,大規模ネットワーク環境における有望な性能が示された。
関連論文リスト
- InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Deep Learning Based Face Recognition Method using Siamese Network [0.0]
本稿では,顔画像のラベル付けの必要性を解消し,顔認識にSiameseネットワークを採用することを提案する。
我々は、近隣の隣り合う負のサンプルを戦略的に活用することで、これを実現する。
提案した教師なしシステムは、類似しているが完全に教師付きベースラインと同等のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-12-21T16:35:11Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - Cross-domain Robust Deepfake Bias Expansion Network for Face Forgery
Detection [4.269822517578155]
本稿では,顔偽造検出を強化するために,クロスドメインロバストバイアス拡張ネットワーク(BENet)を導入する。
BENetは、入力顔の再構成にオートエンコーダを使用し、実際の顔の不変性を維持しつつ、再構成された偽顔と元の顔との差を選択的に強化する。
さらに、BENetは、サンプルが既知の分布に属するかどうかを決定する閾値を持つクロスドメイン検出器を組み込んでいる。
論文 参考訳(メタデータ) (2023-10-08T11:30:22Z) - Enhancing Exfiltration Path Analysis Using Reinforcement Learning [7.112500486473225]
この作業は、プロトコルとペイロードを考慮した方法論を拡張します。
生成されたパスは、通信ペイロードとプロトコルをMarkov決定プロセスに含めることで強化される。
論文 参考訳(メタデータ) (2023-10-05T16:43:12Z) - Exposing Surveillance Detection Routes via Reinforcement Learning,
Attack Graphs, and Cyber Terrain [6.0943983217923945]
この作業は、リスク回避を図りながらネットワークサービスの探索に重点を置くSDRの構築に重点を置いている。
RLアルゴリズムは、ネットワークのどの領域が安全に探索できるかを初期探索で決定する、新しいウォームアップフェーズを持つように修正されている。
論文 参考訳(メタデータ) (2022-11-06T05:05:50Z) - Offline Meta-Reinforcement Learning with Online Self-Supervision [66.42016534065276]
適応ポリシをメタトレーニングするための報酬付きオフラインデータを用いたハイブリッドオフラインメタRLアルゴリズムを提案する。
提案手法では,オフラインデータを用いて報酬関数の分布を学習し,さらにオンラインデータに対する自己監督型報酬ラベルにサンプリングする。
追加データと自己生成報酬を用いることで、エージェントの一般化能力が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-07-08T17:01:32Z) - Offline Reinforcement Learning as Anti-Exploration [49.72457136766916]
我々は、新たなオフラインRLエージェントを設計するためのボーナスベースの探索に関する文献から着想を得た。
中心となるアイデアは、探索のために追加するのではなく、報酬から予測ベースの探査ボーナスを減じることだ。
我々のエージェントは、連続的な制御ロコモーションと操作タスクのセットにおいて、最先端技術と競合していることを示す。
論文 参考訳(メタデータ) (2021-06-11T14:41:30Z) - DCF-ASN: Coarse-to-fine Real-time Visual Tracking via Discriminative
Correlation Filter and Attentional Siamese Network [9.01402976480327]
識別相関フィルタ(DCF)とシアムネットワークは視覚追跡タスクにおいて有望な性能を達成している。
オンラインアップデーティングdcfモジュールを用いて,目標状態の概算を行う粗粒度追跡フレームワークを提案する。
提案したDCF-ASNは、トラッキング効率が良く、最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-03-19T03:01:21Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。