論文の概要: CORTEX: Collaborative LLM Agents for High-Stakes Alert Triage
- arxiv url: http://arxiv.org/abs/2510.00311v1
- Date: Tue, 30 Sep 2025 22:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.270786
- Title: CORTEX: Collaborative LLM Agents for High-Stakes Alert Triage
- Title(参考訳): CORTEX:高濃度アラートトライアージのための共同LLMエージェント
- Authors: Bowen Wei, Yuan Shen Tay, Howard Liu, Jinhao Pan, Kun Luo, Ziwei Zhu, Chris Jordan,
- Abstract要約: SOC(Security Operations Centers)は、毎日何万ものアラートに圧倒されている。
この過負荷は警告の疲労を引き起こし、見過ごされた脅威やアナリストのバーンアウトにつながる。
警告トリアージのためのマルチエージェントLLMアーキテクチャであるCORTEXを提案する。
- 参考スコア(独自算出の注目度): 10.088447487211893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security Operations Centers (SOCs) are overwhelmed by tens of thousands of daily alerts, with only a small fraction corresponding to genuine attacks. This overload creates alert fatigue, leading to overlooked threats and analyst burnout. Classical detection pipelines are brittle and context-poor, while recent LLM-based approaches typically rely on a single model to interpret logs, retrieve context, and adjudicate alerts end-to-end -- an approach that struggles with noisy enterprise data and offers limited transparency. We propose CORTEX, a multi-agent LLM architecture for high-stakes alert triage in which specialized agents collaborate over real evidence: a behavior-analysis agent inspects activity sequences, evidence-gathering agents query external systems, and a reasoning agent synthesizes findings into an auditable decision. To support training and evaluation, we release a dataset of fine-grained SOC investigations from production environments, capturing step-by-step analyst actions and linked tool outputs. Across diverse enterprise scenarios, CORTEX substantially reduces false positives and improves investigation quality over state-of-the-art single-agent LLMs.
- Abstract(参考訳): セキュリティ・オペレーション・センター(SOC)は数万の日々の警報に圧倒されている。
この過負荷は警告の疲労を引き起こし、見過ごされた脅威やアナリストのバーンアウトにつながる。
古典的な検出パイプラインは脆弱でコンテキストが貧弱であるのに対して、最近のLCMベースのアプローチは一般的に、ログの解釈やコンテキストの取得、エンドツーエンドでの警告の調整など、単一のモデルに依存しています。
行動分析エージェントがアクティビティシーケンスを検査し、エビデンス収集エージェントが外部システムに問い合わせ、推論エージェントが分析結果を監査可能な判断に合成する。
トレーニングと評価を支援するため,本研究では,実運用環境からの細粒度SOC調査のデータセットを公開し,ステップバイステップのアナリストアクションとリンクツールアウトプットをキャプチャする。
さまざまなエンタープライズシナリオにおいて、CORTEXは偽陽性を大幅に低減し、最先端の単一エージェントLLMに対する調査品質を向上させる。
関連論文リスト
- LLM-driven Provenance Forensics for Threat Investigation and Detection [12.388936704058521]
PROVSEEKは、証明駆動の法医学的分析と脅威情報抽出のためのエージェントフレームワークである。
ベクター化された脅威レポートの知識ベースとシステム前駆者データベースのデータとを融合させる、正確なコンテキスト対応クエリを生成する。
証明クエリを解決し、複数の役割特異的なエージェントを編成して幻覚を緩和し、構造化された、地味で検証可能な法医学的な要約を合成する。
論文 参考訳(メタデータ) (2025-08-29T04:39:52Z) - Searching for Privacy Risks in LLM Agents via Simulation [61.229785851581504]
本稿では,プライバシクリティカルなエージェントインタラクションのシミュレーションを通じて,攻撃と防御戦略の改善を交互に行う検索ベースのフレームワークを提案する。
攻撃戦略は、直接の要求から、不正行為や同意偽造といった高度な戦術へとエスカレートする。
発見された攻撃と防御は、さまざまなシナリオやバックボーンモデルにまたがって伝達され、プライバシーに配慮したエージェントを構築するための強力な実用性を示している。
論文 参考訳(メタデータ) (2025-08-14T17:49:09Z) - Risk Analysis Techniques for Governed LLM-based Multi-Agent Systems [0.0]
本稿では,マルチエージェントAIシステムにおけるリスク識別と分析の初期段階について述べる。
信頼性障害のカスケード,エージェント間コミュニケーション障害,モノカルチャー崩壊,適合性バイアス,心の欠陥理論,混合モチベーションダイナミクスの6つの重要な障害モードについて検討した。
論文 参考訳(メタデータ) (2025-08-06T06:06:57Z) - AgentSight: System-Level Observability for AI Agents Using eBPF [10.37440633887049]
既存のツールは、エージェントの高レベルな意図(LSMプロンプトを介して)または低レベルな行動(例えば、システムコール)を観察するが、これら2つのビューを関連付けることはできない。
AgentOpsはハイブリッドアプローチを使用して,このセマンティックギャップをブリッジする,AgentOpsオブザーバビリティフレームワークです。
AgentSightはTLS暗号化されたLLMトラフィックをインターセプトしてセマンティックインテントを抽出し、カーネルイベントを監視してシステム全体の効果を観察し、これら2つのストリームをプロセス境界を越えて因果的に関連付ける。
論文 参考訳(メタデータ) (2025-08-02T01:43:39Z) - CoTGuard: Using Chain-of-Thought Triggering for Copyright Protection in Multi-Agent LLM Systems [55.57181090183713]
我々は、Chain-of-Thought推論内でトリガーベースの検出を活用する著作権保護のための新しいフレームワークであるCoTGuardを紹介する。
具体的には、特定のCoTセグメントをアクティベートし、特定のトリガクエリをエージェントプロンプトに埋め込むことで、未許可コンテンツ再生の中間的推論ステップを監視する。
このアプローチは、協調エージェントシナリオにおける著作権侵害の微細かつ解釈可能な検出を可能にする。
論文 参考訳(メタデータ) (2025-05-26T01:42:37Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - Audit-LLM: Multi-Agent Collaboration for Log-based Insider Threat Detection [16.154903877808795]
Audit-LLMは3つの協調エージェントからなるマルチエージェントログベースのインサイダー脅威検出フレームワークである。
本稿では,2つの独立実行者が推論交換を通じて結論を反復的に洗練し,合意に達するための,ペアワイズ・エビデンスに基づくマルチエージェント・ディベート(EMAD)機構を提案する。
論文 参考訳(メタデータ) (2024-08-12T11:33:45Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [74.16170899755281]
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
AgentBoardは、インクリメンタルな進歩と包括的な評価ツールキットをキャプチャする、きめ細かい進捗率のメトリクスを提供する。
これはLLMエージェントの能力と限界に光を当てるだけでなく、その性能の解釈可能性も最前線に広める。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。