論文の概要: Discovering Command and Control Channels Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.07154v1
- Date: Sat, 13 Jan 2024 20:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:32:42.162572
- Title: Discovering Command and Control Channels Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた指揮制御チャネルの探索
- Authors: Cheng Wang, Akshay Kakkar, Christopher Redino, Abdul Rahman, Ajinsyam
S, Ryan Clark, Daniel Radke, Tyler Cody, Lanxiao Huang, Edward Bowen
- Abstract要約: 強化学習アプローチは、大規模ネットワーク上でC2アタックキャンペーンを自動実行することを学ぶ。
本稿では,C2トラフィックフローを3段階のプロセスとしてモデル化し,マルコフ決定プロセスとして定式化する。
この手法は,1000以上のホストを持つ大規模ネットワーク上で評価され,ファイアウォールを回避しながら攻撃経路を効果的に学習できることが実証された。
- 参考スコア(独自算出の注目度): 6.1248699897810726
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Command and control (C2) paths for issuing commands to malware are sometimes
the only indicators of its existence within networks. Identifying potential C2
channels is often a manually driven process that involves a deep understanding
of cyber tradecraft. Efforts to improve discovery of these channels through
using a reinforcement learning (RL) based approach that learns to automatically
carry out C2 attack campaigns on large networks, where multiple defense layers
are in place serves to drive efficiency for network operators. In this paper,
we model C2 traffic flow as a three-stage process and formulate it as a Markov
decision process (MDP) with the objective to maximize the number of valuable
hosts whose data is exfiltrated. The approach also specifically models payload
and defense mechanisms such as firewalls which is a novel contribution. The
attack paths learned by the RL agent can in turn help the blue team identify
high-priority vulnerabilities and develop improved defense strategies. The
method is evaluated on a large network with more than a thousand hosts and the
results demonstrate that the agent can effectively learn attack paths while
avoiding firewalls.
- Abstract(参考訳): マルウェアにコマンドを発行するコマンド・アンド・コントロール(C2)パスは、ネットワーク内に存在する唯一の指標である。
潜在的なC2チャネルを特定することは、しばしば、サイバー取引の深い理解を伴う手作業によるプロセスである。
大規模ネットワーク上でC2攻撃を自動実行することを学ぶ強化学習(RL)ベースのアプローチを用いることで、これらのチャネルの発見を改善する努力は、ネットワークオペレーターの効率を高めるのに役立つ。
本稿では,c2トラヒックフローを3段階のプロセスとしてモデル化し,データを流出する価値のあるホスト数を最大化するためにマルコフ決定プロセス(mdp)として定式化する。
このアプローチは、新しい貢献であるファイアウォールのようなペイロードと防御メカニズムを特にモデル化する。
RLエージェントが学んだアタックパスは、ブルーチームが高優先度の脆弱性を特定し、改善された防御戦略を開発するのに役立つ。
この手法は,1000以上のホストを持つ大規模ネットワーク上で評価され,ファイアウォールを回避しながら攻撃経路を効果的に学習できることを示す。
関連論文リスト
- Discovering Command and Control (C2) Channels on Tor and Public Networks
Using Reinforcement Learning [7.8524872849337655]
本稿では,通常の(パブリック)ネットワークとTorネットワークの両方を用いて,C2アタックキャンペーンをエミュレートするための強化学習(RL)アプローチを提案する。
典型的なネットワーク構成では、RLエージェントがTorベースの通信チャネルと従来の通信チャネルの両方を利用して、回復力のあるC2アタックパスを自動的に検出できることが示されている。
論文 参考訳(メタデータ) (2024-02-14T14:33:17Z) - Raij\=u: Reinforcement Learning-Guided Post-Exploitation for Automating
Security Assessment of Network Systems [0.0]
Raij=uフレームワークは強化学習駆動の自動化アプローチである。
我々は2つのRLアルゴリズムを実装し、知的行動を行うことのできる特殊エージェントを訓練する。
エージェントは55段階未満の攻撃で84%以上の攻撃を成功させる。
論文 参考訳(メタデータ) (2023-09-27T09:36:22Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning [4.640835690336653]
公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:16:10Z) - Autonomous Attack Mitigation for Industrial Control Systems [25.894883701063055]
サイバー攻撃からコンピュータネットワークを守るには、警告や脅威情報に対するタイムリーな対応が必要である。
本稿では,大規模産業制御ネットワークにおける自律応答と回復に対する深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-03T18:08:06Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Symbolic Reinforcement Learning for Safe RAN Control [62.997667081978825]
無線アクセスネットワーク(RAN)アプリケーションにおける安全な制御のためのシンボリック強化学習(SRL)アーキテクチャを紹介します。
本ツールでは,LTL(Linear Temporal Logic)で表現された高レベルの安全仕様を選択して,所定のセルネットワーク上で動作しているRLエージェントをシールドする。
ユーザインタフェース(ui)を用いて,ユーザがインテントの仕様をアーキテクチャに設定し,許可されたアクションとブロックされたアクションの違いを検査する。
論文 参考訳(メタデータ) (2021-03-11T10:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。