論文の概要: Towards Agentic Honeynet Configuration
- arxiv url: http://arxiv.org/abs/2603.14122v1
- Date: Sat, 14 Mar 2026 21:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.613726
- Title: Towards Agentic Honeynet Configuration
- Title(参考訳): エージェントハニーネットの構成に向けて
- Authors: Federico Mirra, Matteo Boffa, Idilio Drago, Danilo Giordano, Marco Mellia,
- Abstract要約: ハニーポット(Honeypots)は、脅威情報を集めるために脆弱なサービスをエミュレートする詐欺システムである。
実践的ネットワークと計算資源では、露出可能なハニーポットの数を制限する。
この研究は、進行中の攻撃に対して、ハニーポットの露光を自律的に管理するAI駆動のエージェントアーキテクチャを調査する。
- 参考スコア(独自算出の注目度): 0.8873265946210988
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Honeypots are deception systems that emulate vulnerable services to collect threat intelligence. While deploying many honeypots increases the opportunity to observe attacker behaviour, in practise network and computational resources limit the number of honeypots that can be exposed. Hence, practitioners must select the assets to deploy, a decision that is typically made statically despite attackers' tactics evolving over time. This work investigates an AI-driven agentic architecture that autonomously manages honeypot exposure in response to ongoing attacks. The proposed agent analyses Intrusion Detection System (IDS) alerts and network state to infer the progression of the attack, identify compromised assets, and predict likely attacker targets. Based on this assessment, the agent dynamically reconfigures the system to maintain attacker engagement while minimizing unnecessary exposure. The approach is evaluated in a simulated environment where attackers execute Proof-of-Concept exploits for known CVEs. Preliminary results indicate that the agent can effectively infer the intent of the attacker and improve the efficiency of exposure under resource constraints
- Abstract(参考訳): ハニーポット(Honeypots)は、脅威情報を集めるために脆弱なサービスをエミュレートする詐欺システムである。
多くのハニーポットをデプロイすると、攻撃者の行動を観察する機会が増加するが、実践的なネットワークと計算資源では、露出可能なハニーポットの数を制限する。
したがって、実践者は配置する資産を選択する必要があり、これは攻撃者の戦術が時間とともに進化しているにもかかわらず、通常静的に決定される。
この研究は、進行中の攻撃に対して、ハニーポットの露光を自律的に管理するAI駆動のエージェントアーキテクチャを調査する。
提案エージェントは、攻撃の進行を推測し、漏洩した資産を特定し、潜在的な攻撃対象を予測するために、侵入検知システム(IDS)の警告とネットワーク状態を分析する。
この評価に基づいて、エージェントは、不要な露出を最小限に抑えながら攻撃者のエンゲージメントを維持するためにシステムを動的に再構成する。
このアプローチは、攻撃者が既知のCVEに対してProof-of-Conceptエクスプロイトを実行するシミュレーション環境で評価される。
予備的な結果は、エージェントが攻撃者の意図を効果的に推測し、資源制約下での露出効率を向上させることを示唆している。
関連論文リスト
- SkillJect: Automating Stealthy Skill-Based Prompt Injection for Coding Agents with Trace-Driven Closed-Loop Refinement [120.52289344734415]
エージェントスキルに適したステルスプロンプトインジェクションのための自動フレームワークを提案する。
フレームワークは、明示的なステルス制約の下でインジェクションスキルを合成するアタックエージェント、インジェクションされたスキルを使用してタスクを実行するコードエージェント、アクショントレースをログする評価エージェントの3つのエージェントでクローズドループを形成する。
本手法は,現実的な環境下で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2026-02-15T16:09:48Z) - CausalArmor: Efficient Indirect Prompt Injection Guardrails via Causal Attribution [49.689452243966315]
ツールコール機能を備えたAIエージェントは、IPI(Indirect Prompt Injection)攻撃の影響を受けやすい。
本稿では,選択防衛フレームワークCausalArmorを提案する。
AgentDojoとDoomArenaの実験は、CausalArmorが攻撃的な防御のセキュリティと一致することを示した。
論文 参考訳(メタデータ) (2026-02-08T11:34:08Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE [64.47951172662745]
Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
論文 参考訳(メタデータ) (2025-09-19T04:10:52Z) - WASP: Benchmarking Web Agent Security Against Prompt Injection Attacks [36.97842000562324]
我々は、Pmptインジェクション攻撃に対するWeb Agent Securityのエンドツーエンド評価のための新しいベンチマークであるWASPを紹介する。
高度な推論能力を含むトップレベルのAIモデルでさえ、単純で低便なヒューマンインジェクションによって騙される可能性があることを示す。
攻撃は最大86%で部分的には成功したが、最先端のエージェントでさえ、攻撃者の目標を完全に満たすのに苦労することが多い。
論文 参考訳(メタデータ) (2025-04-22T17:51:03Z) - MELON: Provable Defense Against Indirect Prompt Injection Attacks in AI Agents [60.30753230776882]
LLMエージェントは間接的プロンプトインジェクション(IPI)攻撃に対して脆弱であり、ツール検索情報に埋め込まれた悪意のあるタスクはエージェントをリダイレクトして不正なアクションを取ることができる。
マスク機能によって修正されたマスク付きユーザでエージェントの軌道を再実行することで攻撃を検知する新しいIPIディフェンスであるMELONを提案する。
論文 参考訳(メタデータ) (2025-02-07T18:57:49Z) - Adversarial Inception Backdoor Attacks against Reinforcement Learning [16.350898218047405]
最近の研究は、訓練時間、バックドア中毒に対するDeep Reinforcement Learning (DRL)アルゴリズムの脆弱性を実証している。
本稿では,厳格な報酬制約の下で,DRLに対する新たなバックドア攻撃法を提案する。
論文 参考訳(メタデータ) (2024-10-17T19:50:28Z) - Leveraging Reinforcement Learning in Red Teaming for Advanced Ransomware Attack Simulations [7.361316528368866]
本稿では,ランサムウェア攻撃のシミュレーションに強化学習(RL)を利用する新しい手法を提案する。
実世界のネットワークを模倣するシミュレーション環境でRLエージェントを訓練することにより、効果的な攻撃戦略を迅速に学習することができる。
152ホストのサンプルネットワークの実験結果から,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2024-06-25T14:16:40Z) - Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。