論文の概要: Terrarium: Revisiting the Blackboard for Multi-Agent Safety, Privacy, and Security Studies
- arxiv url: http://arxiv.org/abs/2510.14312v1
- Date: Thu, 16 Oct 2025 05:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.73131
- Title: Terrarium: Revisiting the Blackboard for Multi-Agent Safety, Privacy, and Security Studies
- Title(参考訳): Terrarium: マルチエージェント安全性、プライバシ、セキュリティ研究のためのブラックボードの再検討
- Authors: Mason Nakamura, Abhinav Kumar, Saaduddin Mahmud, Sahar Abdelnabi, Shlomo Zilberstein, Eugene Bagdasarian,
- Abstract要約: マルチエージェントシステムにおける安全性,プライバシ,セキュリティに関する詳細な研究のためのTerreriumフレームワークを提案する。
我々は、不正、悪意のあるエージェント、妥協通信、データ中毒などの重要な攻撃ベクターを識別する。
- 参考スコア(独自算出の注目度): 22.22483072716524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A multi-agent system (MAS) powered by large language models (LLMs) can automate tedious user tasks such as meeting scheduling that requires inter-agent collaboration. LLMs enable nuanced protocols that account for unstructured private data, user constraints, and preferences. However, this design introduces new risks, including misalignment and attacks by malicious parties that compromise agents or steal user data. In this paper, we propose the Terrarium framework for fine-grained study on safety, privacy, and security in LLM-based MAS. We repurpose the blackboard design, an early approach in multi-agent systems, to create a modular, configurable testbed for multi-agent collaboration. We identify key attack vectors such as misalignment, malicious agents, compromised communication, and data poisoning. We implement three collaborative MAS scenarios with four representative attacks to demonstrate the framework's flexibility. By providing tools to rapidly prototype, evaluate, and iterate on defenses and designs, Terrarium aims to accelerate progress toward trustworthy multi-agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したマルチエージェントシステム(MAS)は、エージェント間コラボレーションを必要とするスケジューリングのミーティングのような面倒なユーザタスクを自動化する。
LLMは、構造化されていないプライベートデータ、ユーザの制約、嗜好を考慮に入れたニュアンスプロトコルを可能にする。
しかし、この設計では、エージェントを侵害したりユーザーデータを盗んだりした悪意のある当事者による不正調整や攻撃など、新たなリスクが導入されている。
本稿では, LLM ベースのMAS における安全性, プライバシ, セキュリティに関する詳細な研究のためのTerrerium フレームワークを提案する。
マルチエージェントシステムにおける初期のアプローチであるブラックボードデザインを再利用して,マルチエージェントコラボレーションのためのモジュール型で構成可能なテストベッドを作成する。
我々は、不正、悪意のあるエージェント、妥協通信、データ中毒などの重要な攻撃ベクターを識別する。
フレームワークの柔軟性を示すために,3つの協調MASシナリオを4つの代表的な攻撃で実装する。
防衛と設計を迅速にプロトタイプ化し、評価し、反復するツールを提供することで、テラリウムは信頼できるマルチエージェントシステムへの進歩を加速することを目指している。
関連論文リスト
- From Prompt Injections to Protocol Exploits: Threats in LLM-Powered AI Agents Workflows [1.202155693533555]
構造化関数呼び出しインタフェースを持つ大規模言語モデル(LLM)は、リアルタイムデータ検索と計算機能を大幅に拡張した。
しかし、プラグイン、コネクター、エージェント間プロトコルの爆発的な増殖は、発見メカニズムやセキュリティプラクティスよりも大きくなっている。
ホスト・ツー・ツールとエージェント・ツー・エージェント・エージェントの通信にまたがる,LDM-エージェントエコシステムに対する最初の統一エンドツーエンド脅威モデルを導入する。
論文 参考訳(メタデータ) (2025-06-29T14:32:32Z) - Seven Security Challenges That Must be Solved in Cross-domain Multi-agent LLM Systems [16.838103835766066]
大規模言語モデル(LLM)は、組織の境界を越えて協調する自律エージェントへと急速に進化している。
本稿では、クロスドメインマルチエージェントLLMシステムのセキュリティアジェンダをマッピングする。
論文 参考訳(メタデータ) (2025-05-28T18:19:03Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - DoomArena: A framework for Testing AI Agents Against Evolving Security Threats [84.94654617852322]
本稿では,AIエージェントのセキュリティ評価フレームワークであるDoomArenaを紹介する。
プラグインフレームワークであり、現実的なエージェントフレームワークと簡単に統合できる。
モジュールであり、エージェントがデプロイされる環境の詳細から攻撃の開発を分離する。
論文 参考訳(メタデータ) (2025-04-18T20:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。