論文の概要: Discovering Command and Control Channels Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.07154v1
- Date: Sat, 13 Jan 2024 20:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:32:42.162572
- Title: Discovering Command and Control Channels Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた指揮制御チャネルの探索
- Authors: Cheng Wang, Akshay Kakkar, Christopher Redino, Abdul Rahman, Ajinsyam
S, Ryan Clark, Daniel Radke, Tyler Cody, Lanxiao Huang, Edward Bowen
- Abstract要約: 強化学習アプローチは、大規模ネットワーク上でC2アタックキャンペーンを自動実行することを学ぶ。
本稿では,C2トラフィックフローを3段階のプロセスとしてモデル化し,マルコフ決定プロセスとして定式化する。
この手法は,1000以上のホストを持つ大規模ネットワーク上で評価され,ファイアウォールを回避しながら攻撃経路を効果的に学習できることが実証された。
- 参考スコア(独自算出の注目度): 6.1248699897810726
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Command and control (C2) paths for issuing commands to malware are sometimes
the only indicators of its existence within networks. Identifying potential C2
channels is often a manually driven process that involves a deep understanding
of cyber tradecraft. Efforts to improve discovery of these channels through
using a reinforcement learning (RL) based approach that learns to automatically
carry out C2 attack campaigns on large networks, where multiple defense layers
are in place serves to drive efficiency for network operators. In this paper,
we model C2 traffic flow as a three-stage process and formulate it as a Markov
decision process (MDP) with the objective to maximize the number of valuable
hosts whose data is exfiltrated. The approach also specifically models payload
and defense mechanisms such as firewalls which is a novel contribution. The
attack paths learned by the RL agent can in turn help the blue team identify
high-priority vulnerabilities and develop improved defense strategies. The
method is evaluated on a large network with more than a thousand hosts and the
results demonstrate that the agent can effectively learn attack paths while
avoiding firewalls.
- Abstract(参考訳): マルウェアにコマンドを発行するコマンド・アンド・コントロール(C2)パスは、ネットワーク内に存在する唯一の指標である。
潜在的なC2チャネルを特定することは、しばしば、サイバー取引の深い理解を伴う手作業によるプロセスである。
大規模ネットワーク上でC2攻撃を自動実行することを学ぶ強化学習(RL)ベースのアプローチを用いることで、これらのチャネルの発見を改善する努力は、ネットワークオペレーターの効率を高めるのに役立つ。
本稿では,c2トラヒックフローを3段階のプロセスとしてモデル化し,データを流出する価値のあるホスト数を最大化するためにマルコフ決定プロセス(mdp)として定式化する。
このアプローチは、新しい貢献であるファイアウォールのようなペイロードと防御メカニズムを特にモデル化する。
RLエージェントが学んだアタックパスは、ブルーチームが高優先度の脆弱性を特定し、改善された防御戦略を開発するのに役立つ。
この手法は,1000以上のホストを持つ大規模ネットワーク上で評価され,ファイアウォールを回避しながら攻撃経路を効果的に学習できることを示す。
関連論文リスト
- Multi-Objective Reinforcement Learning for Automated Resilient Cyber Defence [0.0]
サイバー攻撃は、軍事指揮統制ネットワーク、情報、監視、偵察(ISR)システム、民間の臨界国家インフラにセキュリティ上の脅威をもたらす。
これらの攻撃における人工知能と自律エージェントの使用は、この脅威の規模、範囲、複雑さを増大させ、それらが引き起こす破壊を後押しする。
自律サイバー防衛(ACD)エージェントは、マシンスピードとこの問題に対処するために必要なスケールで応答することで、この脅威を軽減することを目指している。
論文 参考訳(メタデータ) (2024-11-26T16:51:52Z) - Leveraging Reinforcement Learning in Red Teaming for Advanced Ransomware Attack Simulations [7.361316528368866]
本稿では,ランサムウェア攻撃のシミュレーションに強化学習(RL)を利用する新しい手法を提案する。
実世界のネットワークを模倣するシミュレーション環境でRLエージェントを訓練することにより、効果的な攻撃戦略を迅速に学習することができる。
152ホストのサンプルネットワークの実験結果から,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2024-06-25T14:16:40Z) - Discovering Command and Control (C2) Channels on Tor and Public Networks
Using Reinforcement Learning [7.8524872849337655]
本稿では,通常の(パブリック)ネットワークとTorネットワークの両方を用いて,C2アタックキャンペーンをエミュレートするための強化学習(RL)アプローチを提案する。
典型的なネットワーク構成では、RLエージェントがTorベースの通信チャネルと従来の通信チャネルの両方を利用して、回復力のあるC2アタックパスを自動的に検出できることが示されている。
論文 参考訳(メタデータ) (2024-02-14T14:33:17Z) - Raij\=u: Reinforcement Learning-Guided Post-Exploitation for Automating
Security Assessment of Network Systems [0.0]
Raij=uフレームワークは強化学習駆動の自動化アプローチである。
我々は2つのRLアルゴリズムを実装し、知的行動を行うことのできる特殊エージェントを訓練する。
エージェントは55段階未満の攻撃で84%以上の攻撃を成功させる。
論文 参考訳(メタデータ) (2023-09-27T09:36:22Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Symbolic Reinforcement Learning for Safe RAN Control [62.997667081978825]
無線アクセスネットワーク(RAN)アプリケーションにおける安全な制御のためのシンボリック強化学習(SRL)アーキテクチャを紹介します。
本ツールでは,LTL(Linear Temporal Logic)で表現された高レベルの安全仕様を選択して,所定のセルネットワーク上で動作しているRLエージェントをシールドする。
ユーザインタフェース(ui)を用いて,ユーザがインテントの仕様をアーキテクチャに設定し,許可されたアクションとブロックされたアクションの違いを検査する。
論文 参考訳(メタデータ) (2021-03-11T10:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。