論文の概要: Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2410.11463v1
- Date: Tue, 15 Oct 2024 10:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:04:19.081805
- Title: Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning
- Title(参考訳): 深部強化学習を用いたAPT(Advanced Persistent Threats)属性
- Authors: Animesh Singh Basnet, Mohamed Chahine Ghanem, Dipo Dunsin, Wiktor Sowinski-Mydlarz,
- Abstract要約: 本稿では,特定のAPT(Advanced Persistent Threat)グループにマルウェアを帰属させるために,DRL(Deep Reinforcement Learning)の適用について検討する。
12の異なるAPTグループから3500以上のマルウェアサンプルを分析することで、この研究はCuckooのような高度なツールを使ってデータを抽出する。
DRLモデルが従来の機械学習のアプローチを著しく上回り、89.27 %という驚くべきテスト精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper investigates the application of Deep Reinforcement Learning (DRL) for attributing malware to specific Advanced Persistent Threat (APT) groups through detailed behavioural analysis. By analysing over 3500 malware samples from 12 distinct APT groups, the study utilises sophisticated tools like Cuckoo Sandbox to extract behavioural data, providing a deep insight into the operational patterns of malware. The research demonstrates that the DRL model significantly outperforms traditional machine learning approaches such as SGD, SVC, KNN, MLP, and Decision Tree Classifiers, achieving an impressive test accuracy of 89.27 %. It highlights the model capability to adeptly manage complex, variable, and elusive malware attributes. Furthermore, the paper discusses the considerable computational resources and extensive data dependencies required for deploying these advanced AI models in cybersecurity frameworks. Future research is directed towards enhancing the efficiency of DRL models, expanding the diversity of the datasets, addressing ethical concerns, and leveraging Large Language Models (LLMs) to refine reward mechanisms and optimise the DRL framework. By showcasing the transformative potential of DRL in malware attribution, this research advocates for a responsible and balanced approach to AI integration, with the goal of advancing cybersecurity through more adaptable, accurate, and robust systems.
- Abstract(参考訳): 本稿では,特定のAPT(Advanced Persistent Threat)グループにマルウェアを帰属させるためのDRL(Deep Reinforcement Learning)の適用について,詳細な行動解析により検討する。
12の異なるAPTグループから3500以上のマルウェアサンプルを分析し、Cuckoo Sandboxのような高度なツールを使って行動データを抽出し、マルウェアの運用パターンについて深い洞察を与える。
この研究は、DRLモデルがSGD、SVC、KNN、MLP、Decision Tree Classifiersといった従来の機械学習手法を著しく上回り、89.27 %の精度でテストできることを示した。
複雑で、変数で、押出的なマルウェア属性を十分に管理できるモデル機能を強調している。
さらに、サイバーセキュリティフレームワークにこれらの高度なAIモデルをデプロイするために必要な、膨大な計算リソースと広範なデータ依存について論じる。
今後の研究は、DRLモデルの効率の向上、データセットの多様性の拡大、倫理的懸念への対処、報酬メカニズムの洗練とDRLフレームワークの最適化にLarge Language Models(LLM)を活用することを目的としている。
この研究は、マルウェアの帰属におけるDRLのトランスフォーメーションの可能性を示すことによって、より適応的で正確で堅牢なシステムを通じてサイバーセキュリティを促進することを目的として、AI統合に対する責任とバランスの取れたアプローチを提唱する。
関連論文リスト
- On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - A Survey for Deep Reinforcement Learning Based Network Intrusion Detection [3.493620624883548]
本稿では,ネットワーク侵入検出における深部強化学習(DRL)の可能性と課題について考察する。
DRLモデルの性能は分析され、DRLは将来性を持っているが、近年の多くの技術は未解明のままである。
この論文は、現実世界のネットワークシナリオにおけるDRLの展開とテストを強化するための推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-09-25T13:39:30Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Extending Network Intrusion Detection with Enhanced Particle Swarm Optimization Techniques [0.0]
本研究では,機械学習(ML)と深層学習(DL)技術を組み合わせて,ネットワーク侵入検知システム(NIDS)を改善する方法について検討する。
この研究は、CSE-CIC-IDS 2018とLITNET-2020データセットを使用して、MLメソッド(決定木、ランダムフォレスト、XGBoost)とDLモデル(CNN、RNN、DNN)を主要なパフォーマンス指標と比較する。
Decision Treeモデルでは、EPSO(Enhanced Particle Swarm Optimization)を微調整して、ネットワーク違反を効果的に検出する能力を実証した。
論文 参考訳(メタデータ) (2024-08-14T17:11:36Z) - Reinforcement Learning for an Efficient and Effective Malware Investigation during Cyber Incident Response [0.0]
本研究は、強化学習RLを用いた事故後マルウェア鑑定の強化に焦点を当てた。
本研究は,ポストインシデント調査モデルと,ポストインシデント調査の迅速化を目的としたMDPポストインシデントマルウェア調査モデルとフレームワークを提案する。
次に,提案フレームワークにおける構造化MDPに基づくRLマルウェア調査モデルを実装した。
論文 参考訳(メタデータ) (2024-08-04T11:55:24Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - A Comparative Analysis of Machine Learning Techniques for IoT Intrusion
Detection [0.0]
本稿では,IoT-23データセットの9つのマルウェアキャプチャにおける教師付き・教師なし・強化学習手法の比較分析を行った。
SVM, Extreme Gradient Boosting (XGBoost), Light Gradient Boosting Machine (LightGBM), isolation Forest (iForest), Local Outlier Factor (LOF), Deep Reinforcement Learning (DRL) model based on a Double Deep Q-Network (DDQN)。
論文 参考訳(メタデータ) (2021-11-25T16:14:54Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。