論文の概要: Security Considerations for Multi-agent Systems
- arxiv url: http://arxiv.org/abs/2603.09002v1
- Date: Mon, 09 Mar 2026 22:46:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.86883
- Title: Security Considerations for Multi-agent Systems
- Title(参考訳): マルチエージェントシステムのセキュリティに関する考察
- Authors: Tam Nguyen, Moses Ndebugre, Dheeraj Arremsetty,
- Abstract要約: マルチエージェント人工知能システム(英: Multi-agent AI system、MAS)は、エージェント間のコミュニケーションを通じて、委任されたツール権限を行使し、永続的なメモリを共有し、コーディネートする自律エージェントのシステムである。
本研究は、MASの脅威景観を体系的に特徴づけ、それに対するAIのための16のセキュリティフレームワークを定量的に評価する。
- 参考スコア(独自算出の注目度): 4.004329206052807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent artificial intelligence systems or MAS are systems of autonomous agents that exercise delegated tool authority, share persistent memory, and coordinate via inter-agent communication. MAS introduces qualitatively distinct security vulnerabilities from those documented for singular AI models. Existing security and governance frameworks were not designed for these emerging attack surfaces. This study systematically characterizes the threat landscape of MAS and quantitatively evaluates 16 security frameworks for AI against it. A four-phase methodology is proposed: constructing a deep technical knowledge base of production multi-agent architectures; conducting generative AI-assisted threat modeling scoped to MAS cybersecurity risks and validated by domain experts; structuring survey plans at individual-threat granularity; and scoring each framework on a three-point scale against the cybersecurity risks. The risks were organized into 193 distinct main threat items across nine risk categories. The expected minimal average score is 2. No reviewed framework achieves majority coverage of any single category. Non-Determinism (mean score 1.231 across all 16 frameworks) and Data Leakage (1.340) are the most under-addressed domains. The OWASP Agentic Security Initiative leads overall at 65.3\% coverage and in the design phase; the CDAO Generative AI Responsible AI Toolkit leads in development and operational coverage. These results provide the first empirical cross-framework comparison for MAS security and offer evidence-based guidance for framework selection.
- Abstract(参考訳): マルチエージェント人工知能システム(英: Multi-agent AI system、MAS)は、エージェント間のコミュニケーションを通じて、委任されたツール権限を行使し、永続的なメモリを共有し、コーディネートする自律エージェントのシステムである。
MASは、特異なAIモデルのために文書化されたものとは異なる定性的なセキュリティ脆弱性を導入している。
既存のセキュリティとガバナンスのフレームワークは、これらの新たな攻撃面のために設計されていない。
本研究は、MASの脅威景観を体系的に特徴づけ、それに対するAIのための16のセキュリティフレームワークを定量的に評価する。
生産マルチエージェントアーキテクチャの深い技術知識ベースの構築、MASサイバーセキュリティリスクを対象とし、ドメインの専門家が検証した生成AI支援脅威モデリングの実行、個別の脅威粒度での調査計画の構造化、サイバーセキュリティリスクに対して各フレームワークを3ポイントのスケールで評価する4段階の手法が提案されている。
リスクは、9つのリスクカテゴリで193の異なる主要な脅威項目に分類された。
予想最小スコアは2。
レビューされたフレームワークは、どのカテゴリでも大半をカバーしていない。
非決定主義(平均スコアは16のフレームワークで1.231)とデータ漏洩(1.340)が最下位のドメインである。
CDAO Generative AI Responsible AI Toolkitは開発と運用のカバレッジをリードする。
これらの結果は、MASセキュリティに対する最初の経験的クロスフレームワーク比較を提供し、フレームワーク選択のためのエビデンスベースのガイダンスを提供する。
関連論文リスト
- OMNI-LEAK: Orchestrator Multi-Agent Network Induced Data Leakage [59.3826294523924]
オーケストレータ設定として知られる,一般的なマルチエージェントパターンのセキュリティ脆弱性について検討する。
本報告では,フロンティアモデルの攻撃カテゴリに対する感受性を報告し,推論モデルと非推論モデルの両方が脆弱であることが確認された。
論文 参考訳(メタデータ) (2026-02-13T21:32:32Z) - Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - The Evolution of Agentic AI in Cybersecurity: From Single LLM Reasoners to Multi-Agent Systems and Autonomous Pipelines [0.0]
サイバーセキュリティはエージェントAIのアーリーアダプターの1つになった。
この調査は、サイバーセキュリティにおけるエージェントAIの5世代分類を提示する。
論文 参考訳(メタデータ) (2025-12-07T05:10:16Z) - SoK: Cybersecurity Assessment of Humanoid Ecosystem [25.852577434268273]
我々はヒューマノイドロボットの7層セキュリティモデルを導入し、39の既知の攻撃と35の防衛をヒューマノイドエコシステム全体で編成した。
提案手法は,Pepper,G1 EDU,Digitの3つの実世界のロボットを評価することで実証する。
論文 参考訳(メタデータ) (2025-08-24T18:13:33Z) - Bridging AI and Software Security: A Comparative Vulnerability Assessment of LLM Agent Deployment Paradigms [1.03121181235382]
大規模言語モデル(LLM)エージェントは、AI固有の旧来のソフトウェアドメインにまたがるセキュリティ上の脆弱性に直面している。
本研究では,Function Calling アーキテクチャと Model Context Protocol (MCP) デプロイメントパラダイムの比較評価を通じて,このギャップを埋める。
私たちは7つの言語モデルにわたる3,250の攻撃シナリオをテストし、AI固有の脅威とソフトウェア脆弱性の両方を対象として、シンプルで、構成され、連鎖した攻撃を評価しました。
論文 参考訳(メタデータ) (2025-07-08T18:24:28Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。