論文の概要: Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2410.11463v2
- Date: Tue, 07 Jan 2025 15:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:48:34.429047
- Title: Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning
- Title(参考訳): 深部強化学習を用いたAPT(Advanced Persistent Threats)属性
- Authors: Animesh Singh Basnet, Mohamed Chahine Ghanem, Dipo Dunsin, Wiktor Sowinski-Mydlarz,
- Abstract要約: マルウェアの帰属に対するDRLモデルの開発には、広範な研究、反復的なコーディング、多数の調整が含まれていた。
モデルは低い精度で苦労したが、アーキテクチャと学習アルゴリズムの永続的な調整により、精度は劇的に向上した。
トレーニングの終わりまでに、モデルは98%近い精度に達し、マルウェアの活動を正確に認識し、属性付けする強力な能力を示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The development of the DRL model for malware attribution involved extensive research, iterative coding, and numerous adjustments based on the insights gathered from predecessor models and contemporary research papers. This preparatory work was essential to establish a robust foundation for the model, ensuring it could adapt and respond effectively to the dynamic nature of malware threats. Initially, the model struggled with low accuracy levels, but through persistent adjustments to its architecture and learning algorithms, accuracy improved dramatically from about 7 percent to over 73 percent in early iterations. By the end of the training, the model consistently reached accuracy levels near 98 percent, demonstrating its strong capability to accurately recognise and attribute malware activities. This upward trajectory in training accuracy is graphically represented in the Figure, which vividly illustrates the model maturation and increasing proficiency over time.
- Abstract(参考訳): マルウェア帰属のためのDRLモデルの開発には、先代モデルや現代の研究論文から収集された知見に基づく広範な研究、反復的コーディング、および多数の調整が含まれていた。
この準備作業は、モデルのための堅牢な基盤を確立するために不可欠であり、マルウェアの脅威の動的な性質に適応し、効果的に対応できるようにした。
当初、モデルの精度は低かったが、アーキテクチャと学習アルゴリズムの永続的な調整により、初期のイテレーションで約7%から73%以上まで精度が劇的に向上した。
トレーニングの終わりまでに、モデルは98%近い精度に達し、マルウェアの活動を正確に認識し、属性付けする強力な能力を示した。
トレーニング精度におけるこの上向きの軌跡は図に表され、モデル成熟と時間とともに習熟度が増大する様子を鮮明に示している。
関連論文リスト
- On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - A Survey for Deep Reinforcement Learning Based Network Intrusion Detection [3.493620624883548]
本稿では,ネットワーク侵入検出における深部強化学習(DRL)の可能性と課題について考察する。
DRLモデルの性能は分析され、DRLは将来性を持っているが、近年の多くの技術は未解明のままである。
この論文は、現実世界のネットワークシナリオにおけるDRLの展開とテストを強化するための推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-09-25T13:39:30Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Extending Network Intrusion Detection with Enhanced Particle Swarm Optimization Techniques [0.0]
本研究では,機械学習(ML)と深層学習(DL)技術を組み合わせて,ネットワーク侵入検知システム(NIDS)を改善する方法について検討する。
この研究は、CSE-CIC-IDS 2018とLITNET-2020データセットを使用して、MLメソッド(決定木、ランダムフォレスト、XGBoost)とDLモデル(CNN、RNN、DNN)を主要なパフォーマンス指標と比較する。
Decision Treeモデルでは、EPSO(Enhanced Particle Swarm Optimization)を微調整して、ネットワーク違反を効果的に検出する能力を実証した。
論文 参考訳(メタデータ) (2024-08-14T17:11:36Z) - Reinforcement Learning for an Efficient and Effective Malware Investigation during Cyber Incident Response [0.0]
本研究は、強化学習RLを用いた事故後マルウェア鑑定の強化に焦点を当てた。
本研究は,ポストインシデント調査モデルと,ポストインシデント調査の迅速化を目的としたMDPポストインシデントマルウェア調査モデルとフレームワークを提案する。
次に,提案フレームワークにおける構造化MDPに基づくRLマルウェア調査モデルを実装した。
論文 参考訳(メタデータ) (2024-08-04T11:55:24Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - A Comparative Analysis of Machine Learning Techniques for IoT Intrusion
Detection [0.0]
本稿では,IoT-23データセットの9つのマルウェアキャプチャにおける教師付き・教師なし・強化学習手法の比較分析を行った。
SVM, Extreme Gradient Boosting (XGBoost), Light Gradient Boosting Machine (LightGBM), isolation Forest (iForest), Local Outlier Factor (LOF), Deep Reinforcement Learning (DRL) model based on a Double Deep Q-Network (DDQN)。
論文 参考訳(メタデータ) (2021-11-25T16:14:54Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。