論文の概要: An Adaptive Multi-Layered Honeynet Architecture for Threat Behavior Analysis via Deep Learning
- arxiv url: http://arxiv.org/abs/2512.07827v1
- Date: Mon, 08 Dec 2025 18:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:55.020074
- Title: An Adaptive Multi-Layered Honeynet Architecture for Threat Behavior Analysis via Deep Learning
- Title(参考訳): 深層学習による脅威行動分析のための適応型多層ハニーネットアーキテクチャ
- Authors: Lukas Johannes Möller,
- Abstract要約: ADLAHは、AI駆動の騙しプラットフォームのためのエンドツーエンドのアーキテクチャの青写真とビジョンである。
中央決定機構のプロトタイプは、セッションが低相互作用センサーノードから動的にプロビジョニングされた高相互作用ハニーポットにエスカレートされるべきタイミングをリアルタイムで決定する。
選択的エスカレーションと異常検出以外にも、このアーキテクチャはボット攻撃チェーンの自動抽出、クラスタリング、バージョン管理を追求している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The escalating sophistication and variety of cyber threats have rendered static honeypots inadequate, necessitating adaptive, intelligence-driven deception. In this work, ADLAH is introduced: an Adaptive Deep Learning Anomaly Detection Honeynet designed to maximize high-fidelity threat intelligence while minimizing cost through autonomous orchestration of infrastructure. The principal contribution is offered as an end-to-end architectural blueprint and vision for an AI-driven deception platform. Feasibility is evidenced by a functional prototype of the central decision mechanism, in which a reinforcement learning (RL) agent determines, in real time, when sessions should be escalated from low-interaction sensor nodes to dynamically provisioned, high-interaction honeypots. Because sufficient live data were unavailable, field-scale validation is not claimed; instead, design trade-offs and limitations are detailed, and a rigorous roadmap toward empirical evaluation at scale is provided. Beyond selective escalation and anomaly detection, the architecture pursues automated extraction, clustering, and versioning of bot attack chains, a core capability motivated by the empirical observation that exposed services are dominated by automated traffic. Together, these elements delineate a practical path toward cost-efficient capture of high-value adversary behavior, systematic bot versioning, and the production of actionable threat intelligence.
- Abstract(参考訳): 高度化する高度化と様々なサイバー脅威は、静的なハニーポットを不十分にし、適応的で知性によって駆動される詐欺を必要としている。
適応型ディープラーニング異常検出Honeynetは、インフラストラクチャの自律的なオーケストレーションによるコストを最小化しつつ、高忠実度脅威インテリジェンスを最大化するように設計されている。
主なコントリビューションは、AI駆動の騙しプラットフォームのためのエンドツーエンドのアーキテクチャ青写真とビジョンとして提供されている。
強化学習(RL)エージェントは、セッションが低相互作用センサーノードから動的に準備され、高相互作用ハニーポットにエスカレートされるべきかをリアルタイムで決定する。
十分なライブデータが利用できないため、フィールドスケールの検証は要求されず、代わりに、設計上のトレードオフと制限が詳述され、スケールでの経験的評価に向けた厳密なロードマップが提供される。
このアーキテクチャは、選択的エスカレーションと異常検出に加えて、ボット攻撃チェーンの自動抽出、クラスタリング、バージョニングも追求している。
これらの要素は共に、高価値な敵行動、体系的なボットバージョニング、行動可能な脅威インテリジェンスの生成を、コスト効率で捉えるための実践的な道を示す。
関連論文リスト
- Explainable and Resilient ML-Based Physical-Layer Attack Detectors [46.30085297768888]
物理層侵入を警告するために訓練された各種分類器の内部動作を分析する。
有害パラメータのノイズ化に対する検出器のレジリエンスを評価した。
この研究は、利用可能なネットワーク監視データに基づいて訓練された高速で堅牢な検出器を開発するための設計ガイドラインとして機能する。
論文 参考訳(メタデータ) (2025-09-30T17:05:33Z) - Adaptive Cybersecurity Architecture for Digital Product Ecosystems Using Agentic AI [0.0]
本研究では,動的学習と文脈認識型意思決定が可能な自律目標駆動エージェントを提案する。
行動ベースライン、分散リスクスコア、フェデレーションされた脅威情報共有は重要な特徴である。
このアーキテクチャは、複雑なデジタルインフラストラクチャを保護するインテリジェントでスケーラブルな青写真を提供する。
論文 参考訳(メタデータ) (2025-09-25T00:43:53Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Graph of Effort: Quantifying Risk of AI Usage for Vulnerability Assessment [0.0]
非AI資産を攻撃するために使用されるAIは、攻撃的AIと呼ばれる。
高度な自動化や複雑なパターン認識など、その能力を利用するリスクは大幅に増大する可能性がある。
本稿では,攻撃的AIを敵による脆弱性攻撃に使用するために必要な労力を分析するための,直感的でフレキシブルで効果的な脅威モデリング手法であるGraph of Effortを紹介する。
論文 参考訳(メタデータ) (2025-03-20T17:52:42Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。