論文の概要: Adaptive Deception Framework with Behavioral Analysis for Enhanced Cybersecurity Defense
- arxiv url: http://arxiv.org/abs/2510.02424v1
- Date: Thu, 02 Oct 2025 16:52:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.106112
- Title: Adaptive Deception Framework with Behavioral Analysis for Enhanced Cybersecurity Defense
- Title(参考訳): サイバーセキュリティの強化のための行動分析を用いた適応型偽装フレームワーク
- Authors: Basil Abdullah AL-Zahrani,
- Abstract要約: 本稿では,CICIDS 2017データセット上で99.88%の検出率と0.13%の偽陽性率を達成する適応型偽装フレームワークであるCADLを提案する。
このフレームワークは、アンサンブル機械学習(Random Forest、XGBoost、Neural Networks)と行動プロファイリングを組み合わせて、ネットワーク侵入に対する応答を特定し、適応する。
当社はオープンソース実装と透過的なパフォーマンス指標を提供し、年間150~400ドルの商用偽装プラットフォームに代わる、アクセス可能な代替手段を提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents CADL (Cognitive-Adaptive Deception Layer), an adaptive deception framework achieving 99.88% detection rate with 0.13% false positive rate on the CICIDS2017 dataset. The framework employs ensemble machine learning (Random Forest, XGBoost, Neural Networks) combined with behavioral profiling to identify and adapt responses to network intrusions. Through a coordinated signal bus architecture, security components share real-time intelligence, enabling collective decision-making. The system profiles attackers based on temporal patterns and deploys customized deception strategies across five escalation levels. Evaluation on 50,000 CICIDS2017 test samples demonstrates that CADL significantly outperforms traditional intrusion detection systems (Snort: 71.2%, Suricata: 68.5%) while maintaining production-ready false positive rates. The framework's behavioral analysis achieves 89% accuracy in classifying attacker profiles. We provide open-source implementation and transparent performance metrics, offering an accessible alternative to commercial deception platforms costing $150-400 per host annually.
- Abstract(参考訳): 本稿では,CICIDS2017データセットに0.13%の偽陽性率で99.88%の精度で検出できる適応型騙しフレームワークであるCADL(Cognitive-Adaptive Deception Layer)を提案する。
このフレームワークは、アンサンブル機械学習(Random Forest、XGBoost、Neural Networks)と行動プロファイリングを組み合わせて、ネットワーク侵入に対する応答を特定し、適応する。
協調信号バスアーキテクチャを通じて、セキュリティコンポーネントはリアルタイムインテリジェンスを共有し、集合的な意思決定を可能にする。
このシステムは、時間的パターンに基づいて攻撃者をプロファイルし、5つのエスカレーションレベルにわたってカスタマイズされた偽装戦略をデプロイする。
50,000CICIDS2017テストサンプルの評価は、CADLが従来の侵入検知システム(Snort: 71.2%、Suricata: 68.5%)を著しく上回り、生産可能な偽陽性率を維持していることを示している。
このフレームワークの行動分析は、攻撃者のプロファイルを分類する際に89%の精度を達成する。
当社はオープンソース実装と透過的なパフォーマンス指標を提供し、年間150~400ドルの商用偽装プラットフォームに代わる、アクセス可能な代替手段を提供しています。
関連論文リスト
- Hybrid Reputation Aggregation: A Robust Defense Mechanism for Adversarial Federated Learning in 5G and Edge Network Environments [0.0]
5Gおよびエッジネットワーク環境におけるフェデレートラーニング(FL)は、敵のクライアントによる深刻なセキュリティ脅威に直面します。
本稿では,攻撃タイプを事前に知ることなく,FLにおける敵の動作を防御する,新しいロバストアグリゲーション機構であるHybrid Reputation Aggregation(HRA)を紹介する。
HRAは、幾何学的異常検出と、モーメントに基づくクライアントの評判追跡を組み合わせる。
論文 参考訳(メタデータ) (2025-09-22T17:18:59Z) - VISION: Robust and Interpretable Code Vulnerability Detection Leveraging Counterfactual Augmentation [6.576811224645293]
グラフニューラルネットワーク(GNN)は、構造的および論理的コード関係をデータ駆動で学習することができる。
GNNは表面的なコード類似性から'spurious'相関を学習することが多い。
我々は、VISIONと呼ばれる堅牢で解釈可能な脆弱性検出のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-26T11:20:39Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - LLM-based Continuous Intrusion Detection Framework for Next-Gen Networks [0.7100520098029439]
このフレームワークはトランスフォーマーエンコーダアーキテクチャを採用しており、悪意のあるトラフィックと正当なトラフィックを区別するために、双方向に隠されたパターンをキャプチャする。
このシステムは、ガウス混合モデル(GMM)を高次元BERT埋め込みから派生したクラスタ特徴に活用することにより、未知の攻撃タイプを段階的に同定する。
新たな未知の攻撃クラスタの統合後も、このフレームワークは高いレベルで動作し続け、分類精度とリコールの両方で95.6%を達成している。
論文 参考訳(メタデータ) (2024-11-04T18:12:14Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Deep Neural Networks based Meta-Learning for Network Intrusion Detection [0.24466725954625884]
産業の異なるコンポーネントのデジタル化と先住民ネットワーク間の相互接続性は、ネットワーク攻撃のリスクを高めている。
コンピュータネットワークの予測モデルを構築するために使用されるデータには、スキュークラス分布と攻撃型の限定表現がある。
Information Fusion and Stacking Ensemble (INFUSE) という,ネットワーク侵入検出のための新しいディープニューラルネットワークベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-18T18:00:05Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。