論文の概要: Hiding in the AI Traffic: Abusing MCP for LLM-Powered Agentic Red Teaming
- arxiv url: http://arxiv.org/abs/2511.15998v1
- Date: Thu, 20 Nov 2025 02:51:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.444392
- Title: Hiding in the AI Traffic: Abusing MCP for LLM-Powered Agentic Red Teaming
- Title(参考訳): AIトラフィックを抑える - LLMによるエージェントレッドチームのためのMPPの排除
- Authors: Strahinja Janjuesvic, Anna Baron Garcia, Sohrob Kazerounian,
- Abstract要約: 本稿では,モデルコンテキストプロトコル(MCP)を利用した新しいコマンド・アンド・コントロール(C2)アーキテクチャを導入し,適応型偵察エージェントを網羅的に協調する。
私たちのアーキテクチャは、システム全体のゴール指向の振る舞いを改善するだけでなく、コマンドとコントロールの振る舞いを完全に検出および防止するために使用できる主要なホストやネットワークアーティファクトを排除します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI is reshaping offensive cybersecurity by enabling autonomous red team agents that can plan, execute, and adapt during penetration tests. However, existing approaches face trade-offs between generality and specialization, and practical deployments reveal challenges such as hallucinations, context limitations, and ethical concerns. In this work, we introduce a novel command & control (C2) architecture leveraging the Model Context Protocol (MCP) to coordinate distributed, adaptive reconnaissance agents covertly across networks. Notably, we find that our architecture not only improves goal-directed behavior of the system as whole, but also eliminates key host and network artifacts that can be used to detect and prevent command & control behavior altogether. We begin with a comprehensive review of state-of-the-art generative red teaming methods, from fine-tuned specialist models to modular or agentic frameworks, analyzing their automation capabilities against task-specific accuracy. We then detail how our MCP-based C2 can overcome current limitations by enabling asynchronous, parallel operations and real-time intelligence sharing without periodic beaconing. We furthermore explore advanced adversarial capabilities of this architecture, its detection-evasion techniques, and address dual-use ethical implications, proposing defensive measures and controlled evaluation in lab settings. Experimental comparisons with traditional C2 show drastic reductions in manual effort and detection footprint. We conclude with future directions for integrating autonomous exploitation, defensive LLM agents, predictive evasive maneuvers, and multi-agent swarms. The proposed MCP-enabled C2 framework demonstrates a significant step toward realistic, AI-driven red team operations that can simulate advanced persistent threats while informing the development of next-generation defensive systems.
- Abstract(参考訳): ジェネレーティブAIは、侵入テスト中に計画し、実行し、適応できる自律的なレッドチームエージェントを可能にすることで、攻撃的なサイバーセキュリティを再構築している。
しかし、既存のアプローチは一般性と専門化のトレードオフに直面しており、実践的な展開は幻覚、文脈制限、倫理的懸念といった課題を明らかにしている。
本稿では,MCP(Model Context Protocol)を利用した新しいコマンド・アンド・コントロール(C2)アーキテクチャを導入する。
特に、私たちのアーキテクチャは、システム全体のゴール指向の振る舞いを改善するだけでなく、コマンドと制御の振る舞いを完全に検出および防止するために使用できる主要なホストとネットワークアーティファクトを排除します。
我々は、高度に調整されたスペシャリストモデルからモジュール化された、あるいはエージェント的なフレームワークまで、タスク固有の正確性から自動化能力を分析する、最先端の生成的レッドチーム方式の包括的なレビューから始めます。
次に、MPPベースのC2が、周期的なビーコンを使わずに、非同期で並列な操作とリアルタイムなインテリジェンス共有を可能にすることで、現在の制限を克服する方法について詳述する。
さらに, このアーキテクチャの高度な敵意能力, 検出回避技術, デュアルユースな倫理的意味に対処し, 防御対策を提案し, 実験室での評価を制御している。
従来のC2との比較では、手作業と検出フットプリントの大幅な削減が見られた。
我々は,自律的搾取,防衛的LLMエージェント,予測回避操作,マルチエージェントスワムの統合に向けた今後の方向性を結論づける。
提案されたMPP対応のC2フレームワークは、AI駆動のレッドチームによる現実的な運用に向けて大きな一歩を踏み出し、先進的な脅威をシミュレートし、次世代の防衛システムの開発を知らせる。
関連論文リスト
- Adaptive Attacks on Trusted Monitors Subvert AI Control Protocols [80.68060125494645]
プロトコルとモニタモデルを知っている信頼できないモデルによるアダプティブアタックについて検討する。
我々は、攻撃者がモデル出力に公知またはゼロショットプロンプトインジェクションを埋め込む単純な適応攻撃ベクトルをインスタンス化する。
論文 参考訳(メタデータ) (2025-10-10T15:12:44Z) - Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System [2.5145802129902664]
MAESTROフレームワークはエージェントAIの脆弱性を公開、評価、排除するために使用された。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築、実装された。
論文 参考訳(メタデータ) (2025-08-12T00:14:12Z) - From MAS to MARS: Coordination Failures and Reasoning Trade-offs in Hierarchical Multi-Agent Robotic Systems within a Healthcare Scenario [3.5262044630932254]
マルチエージェントロボットシステム(MARS)は、物理的およびタスク関連の制約を統合することで、マルチエージェントシステム上に構築される。
高度なマルチエージェントフレームワークが利用可能であるにも関わらず、実際のロボットへのデプロイメントは制限されている。
論文 参考訳(メタデータ) (2025-08-06T17:54:10Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - Fooling the Watchers: Breaking AIGC Detectors via Semantic Prompt Attacks [0.0]
テキスト・トゥ・イメージ(T2I)モデルの台頭は、フォトリアリスティックな人間の肖像画の合成を可能にした。
本研究では,自動対向プロンプト生成フレームワークを提案する。
提案手法は,オープンソースのAIGC検出器と商用AIGC検出器の両方を一貫して回避する,多種多様な制御可能なプロンプトを生成する。
論文 参考訳(メタデータ) (2025-05-29T07:31:17Z) - OCCULT: Evaluating Large Language Models for Offensive Cyber Operation Capabilities [0.0]
我々は、実世界の攻撃的サイバー操作の実現とスケーリングに向けたAIの進歩を評価するための新しいアプローチを実証する。
我々は、サイバーセキュリティの専門家が厳格かつ反復可能な測定に貢献できる軽量な運用評価フレームワークであるOCCULTについて詳述する。
私たちは、現実的なサイバー脅威をスケールするためにAIが使用されるリスクが、最近著しく進歩していることに気付きました。
論文 参考訳(メタデータ) (2025-02-18T19:33:14Z) - In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。