論文の概要: LiaisonAgent: An Multi-Agent Framework for Autonomous Risk Investigation and Governance
- arxiv url: http://arxiv.org/abs/2603.00200v1
- Date: Fri, 27 Feb 2026 08:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.103768
- Title: LiaisonAgent: An Multi-Agent Framework for Autonomous Risk Investigation and Governance
- Title(参考訳): LiaisonAgent: 自律的リスク調査とガバナンスのためのマルチエージェントフレームワーク
- Authors: Chuanming Tang, Ling Qing, Shifeng Chen,
- Abstract要約: LiaisonAgentは、技術的リスク検出とビジネスレベルのリスク管理のギャップを埋めるために設計された、自律的なマルチエージェントシステムである。
このシステムは、エンドツーエンドのツールコール成功率97.8%、リスク判定精度95%を達成する。
- 参考スコア(独自算出の注目度): 11.009578207207419
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid evolution of sophisticated cyberattacks has strained modern Security Operations Centers (SOC), which traditionally rely on rule-based or signature-driven detection systems. These legacy frameworks often generate high volumes of technical alerts that lack organizational context, leading to analyst fatigue and delayed incident responses. This paper presents LiaisonAgent, an autonomous multi-agent system designed to bridge the gap between technical risk detection and business-level risk governance. Built upon the QWQ-32B large reasoning model, LiaisonAgent integrates specialized sub-agents, including human-computer interaction agents, comprehensive judgment agents, and automated disposal agents-to execute end-to-end investigation workflows. The system leverages a hybrid planning architecture that combines deterministic workflows for compliance with autonomous reasoning based on the ReAct paradigm to handle ambiguous operational scenarios. Experimental evaluations across diverse security contexts, such as large-scale data exfiltration and unauthorized account borrowing, achieve an end-to-end tool-calling success rate of 97.8% and a risk judgment accuracy of 95%. Furthermore, the system exhibits significant resilience against out-of-distribution noise and adversarial prompt injections, while achieving a 92.7% reduction in manual investigation overhead.
- Abstract(参考訳): 高度なサイバー攻撃の急速な進化は、伝統的にルールベースまたはシグネチャ駆動検知システムに依存する現代のセキュリティオペレーションセンター(SOC)を緊張させてきた。
これらのレガシーフレームワークは、しばしば組織的なコンテキストに欠ける大量の技術的アラートを生成し、アナリストの疲労とインシデントレスポンスの遅れにつながる。
本稿では,技術的リスク検出とビジネスレベルのリスク管理のギャップを埋めるために設計された,自律型マルチエージェントシステムであるLiaisonAgentを提案する。
QWQ-32Bの大推論モデルに基づいて構築されたLiaisonAgentは、人間とコンピュータのインタラクションエージェント、包括的な判断エージェント、自動処理エージェントなど、特殊なサブエージェントを統合して、エンドツーエンドの調査ワークフローを実行する。
このシステムは、決定論的ワークフローと、ReActパラダイムに基づく自律推論のコンプライアンスを組み合わせて、あいまいな運用シナリオを処理するハイブリッド計画アーキテクチャを活用する。
大規模データ流出や不正口座借入などの各種セキュリティ状況に対する実験的評価は、エンドツーエンドのツールコール成功率97.8%、リスク判定精度95%を達成している。
さらに, このシステムは, 手動による調査のオーバーヘッドを92.7%削減しつつ, 分配外ノイズや対向的インジェクションに対して大きな耐性を示す。
関連論文リスト
- OMNI-LEAK: Orchestrator Multi-Agent Network Induced Data Leakage [59.3826294523924]
オーケストレータ設定として知られる,一般的なマルチエージェントパターンのセキュリティ脆弱性について検討する。
本報告では,フロンティアモデルの攻撃カテゴリに対する感受性を報告し,推論モデルと非推論モデルの両方が脆弱であることが確認された。
論文 参考訳(メタデータ) (2026-02-13T21:32:32Z) - Constrained Process Maps for Multi-Agent Generative AI Workflows [10.871587311621974]
大規模言語モデル(LLM)ベースのエージェントは、コンプライアンスやデューディリジェンスといった規制された設定において、ますます使われている。
有限水平マルコフ決定過程 (MDP) として定式化された多エージェントシステムを導入する。
モンテカルロ推定(英語版)を用いて、疫学的不確実性はエージェントレベルで定量化され、システムレベルの不確実性は、自動ラベル付き状態またはヒトレビュー状態のいずれかで、MDPの終了によって捉えられる。
論文 参考訳(メタデータ) (2026-02-02T12:32:11Z) - Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Multi-Agent Collaborative Intrusion Detection for Low-Altitude Economy IoT: An LLM-Enhanced Agentic AI Framework [60.72591149679355]
低高度経済の急速な拡大により、インターネット・オブ・モノ(LAE-IoT)ネットワークは前例のないセキュリティ上の課題を生んだ。
従来の侵入検知システムは、空中IoT環境のユニークな特徴に対処できない。
LAE-IoTネットワークにおける侵入検出を強化するための大規模言語モデル(LLM)対応エージェントAIフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-25T12:47:25Z) - The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - AURA: An Agent Autonomy Risk Assessment Framework [0.0]
AURA(Agent aUtonomy Risk Assessment)はエージェントAIによるリスクの検出、定量化、緩和を目的とした統合されたフレームワークである。
AURAは、1つまたは複数のAIエージェントを同期的に、あるいは非同期に実行するリスクをスコアし、評価し、緩和するインタラクティブなプロセスを提供する。
AURAはエージェントAIの責任と透過性をサポートし、計算リソースのバランスを保ちながら、堅牢なリスク検出と緩和を提供する。
論文 参考訳(メタデータ) (2025-10-17T15:30:29Z) - Co-Investigator AI: The Rise of Agentic AI for Smarter, Trustworthy AML Compliance Narratives [2.7295959384567356]
Co-Investigator AIは、SAR(Suspicious Activity Reports)の作成に最適化されたエージェントフレームワークであり、従来の方法よりも大幅に高速で精度が高い。
我々は、SARの草案作成を効率化し、物語を規制上の期待と一致させ、コンプライアンスチームが高次の分析作業に集中できるようにする能力を示します。
論文 参考訳(メタデータ) (2025-09-10T08:16:04Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Towards Unifying Quantitative Security Benchmarking for Multi Agent Systems [0.0]
AIシステムの進化 自律エージェントが協力し、情報を共有し、プロトコルを開発することでタスクを委譲するマルチエージェントアーキテクチャをますます展開する。
そのようなリスクの1つはカスケードリスクである。あるエージェントの侵入はシステムを通してカスケードし、エージェント間の信頼を利用して他人を妥協させる。
ACI攻撃では、あるエージェントに悪意のあるインプットまたはツールエクスプロイトが注入され、そのアウトプットを信頼するエージェント間でカスケードの妥協とダウンストリーム効果が増幅される。
論文 参考訳(メタデータ) (2025-07-23T13:51:28Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。