論文の概要: Terrarium: Revisiting the Blackboard for Multi-Agent Safety, Privacy, and Security Studies
- arxiv url: http://arxiv.org/abs/2510.14312v1
- Date: Thu, 16 Oct 2025 05:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.73131
- Title: Terrarium: Revisiting the Blackboard for Multi-Agent Safety, Privacy, and Security Studies
- Title(参考訳): Terrarium: マルチエージェント安全性、プライバシ、セキュリティ研究のためのブラックボードの再検討
- Authors: Mason Nakamura, Abhinav Kumar, Saaduddin Mahmud, Sahar Abdelnabi, Shlomo Zilberstein, Eugene Bagdasarian,
- Abstract要約: マルチエージェントシステムにおける安全性,プライバシ,セキュリティに関する詳細な研究のためのTerreriumフレームワークを提案する。
我々は、不正、悪意のあるエージェント、妥協通信、データ中毒などの重要な攻撃ベクターを識別する。
- 参考スコア(独自算出の注目度): 22.22483072716524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A multi-agent system (MAS) powered by large language models (LLMs) can automate tedious user tasks such as meeting scheduling that requires inter-agent collaboration. LLMs enable nuanced protocols that account for unstructured private data, user constraints, and preferences. However, this design introduces new risks, including misalignment and attacks by malicious parties that compromise agents or steal user data. In this paper, we propose the Terrarium framework for fine-grained study on safety, privacy, and security in LLM-based MAS. We repurpose the blackboard design, an early approach in multi-agent systems, to create a modular, configurable testbed for multi-agent collaboration. We identify key attack vectors such as misalignment, malicious agents, compromised communication, and data poisoning. We implement three collaborative MAS scenarios with four representative attacks to demonstrate the framework's flexibility. By providing tools to rapidly prototype, evaluate, and iterate on defenses and designs, Terrarium aims to accelerate progress toward trustworthy multi-agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したマルチエージェントシステム(MAS)は、エージェント間コラボレーションを必要とするスケジューリングのミーティングのような面倒なユーザタスクを自動化する。
LLMは、構造化されていないプライベートデータ、ユーザの制約、嗜好を考慮に入れたニュアンスプロトコルを可能にする。
しかし、この設計では、エージェントを侵害したりユーザーデータを盗んだりした悪意のある当事者による不正調整や攻撃など、新たなリスクが導入されている。
本稿では, LLM ベースのMAS における安全性, プライバシ, セキュリティに関する詳細な研究のためのTerrerium フレームワークを提案する。
マルチエージェントシステムにおける初期のアプローチであるブラックボードデザインを再利用して,マルチエージェントコラボレーションのためのモジュール型で構成可能なテストベッドを作成する。
我々は、不正、悪意のあるエージェント、妥協通信、データ中毒などの重要な攻撃ベクターを識別する。
フレームワークの柔軟性を示すために,3つの協調MASシナリオを4つの代表的な攻撃で実装する。
防衛と設計を迅速にプロトタイプ化し、評価し、反復するツールを提供することで、テラリウムは信頼できるマルチエージェントシステムへの進歩を加速することを目指している。
関連論文リスト
- OMNI-LEAK: Orchestrator Multi-Agent Network Induced Data Leakage [59.3826294523924]
オーケストレータ設定として知られる,一般的なマルチエージェントパターンのセキュリティ脆弱性について検討する。
本報告では,フロンティアモデルの攻撃カテゴリに対する感受性を報告し,推論モデルと非推論モデルの両方が脆弱であることが確認された。
論文 参考訳(メタデータ) (2026-02-13T21:32:32Z) - Taming Various Privilege Escalation in LLM-Based Agent Systems: A Mandatory Access Control Framework [16.14469140816631]
LLM(Large Language Model)ベースのエージェントシステムは、複雑な現実世界のタスクに対してますます多くデプロイされている。
本稿では,特権エスカレーションのレンズによる攻撃の理解と軽減を目的としている。
属性ベースアクセス制御(ABAC)に基づく必須アクセス制御フレームワークSEAgentを提案する。
評価の結果,SEAgentは低偽陽性率と無視可能なシステムオーバーヘッドを維持しつつ,様々な特権のエスカレーションを効果的に抑制していることがわかった。
論文 参考訳(メタデータ) (2026-01-17T03:22:56Z) - Exposing Weak Links in Multi-Agent Systems under Adversarial Prompting [5.544819942438653]
本稿では,マルチエージェントシステムのセキュリティ評価を行うフレームワークであるSafeAgentsを提案する。
広く採用されている5つのマルチエージェントアーキテクチャについて検討する。
この結果から,一般的なデザインパターンには重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2025-11-14T04:22:49Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - From Prompt Injections to Protocol Exploits: Threats in LLM-Powered AI Agents Workflows [1.202155693533555]
構造化関数呼び出しインタフェースを持つ大規模言語モデル(LLM)は、リアルタイムデータ検索と計算機能を大幅に拡張した。
しかし、プラグイン、コネクター、エージェント間プロトコルの爆発的な増殖は、発見メカニズムやセキュリティプラクティスよりも大きくなっている。
ホスト・ツー・ツールとエージェント・ツー・エージェント・エージェントの通信にまたがる,LDM-エージェントエコシステムに対する最初の統一エンドツーエンド脅威モデルを導入する。
論文 参考訳(メタデータ) (2025-06-29T14:32:32Z) - Kaleidoscopic Teaming in Multi Agent Simulations [75.47388708240042]
我々は,エージェントが行う複雑な行動,思考プロセス,行動の安全性リスクを評価する上で,既存のレッドチームや安全評価フレームワークは不十分であると主張している。
我々は,新しいコンテキスト内最適化手法を導入し,安全解析のためのより良いシナリオを生成する。
エージェントの安全性を測定するためのフレームワークとともに使用できる適切なメトリクスを提案する。
論文 参考訳(メタデータ) (2025-06-20T23:37:17Z) - Seven Security Challenges That Must be Solved in Cross-domain Multi-agent LLM Systems [16.838103835766066]
大規模言語モデル(LLM)は、組織の境界を越えて協調する自律エージェントへと急速に進化している。
本稿では、クロスドメインマルチエージェントLLMシステムのセキュリティアジェンダをマッピングする。
論文 参考訳(メタデータ) (2025-05-28T18:19:03Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - DoomArena: A framework for Testing AI Agents Against Evolving Security Threats [84.94654617852322]
本稿では,AIエージェントのセキュリティ評価フレームワークであるDoomArenaを紹介する。
プラグインフレームワークであり、現実的なエージェントフレームワークと簡単に統合できる。
モジュールであり、エージェントがデプロイされる環境の詳細から攻撃の開発を分離する。
論文 参考訳(メタデータ) (2025-04-18T20:36:10Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。