論文の概要: MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation
- arxiv url: http://arxiv.org/abs/2506.20737v1
- Date: Wed, 25 Jun 2025 18:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.838845
- Title: MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation
- Title(参考訳): MAGPIE:マルチエージェントコンテキストPrivacy Evaluationのためのデータセット
- Authors: Gurusha Juneja, Alon Albalak, Wenyue Hua, William Yang Wang,
- Abstract要約: LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
- 参考スコア(独自算出の注目度): 54.410825977390274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of LLM-based agents has led to increasing deployment of inter-agent collaboration for tasks like scheduling, negotiation, resource allocation etc. In such systems, privacy is critical, as agents often access proprietary tools and domain-specific databases requiring strict confidentiality. This paper examines whether LLM-based agents demonstrate an understanding of contextual privacy. And, if instructed, do these systems preserve inference time user privacy in non-adversarial multi-turn conversation. Existing benchmarks to evaluate contextual privacy in LLM-agents primarily assess single-turn, low-complexity tasks where private information can be easily excluded. We first present a benchmark - MAGPIE comprising 158 real-life high-stakes scenarios across 15 domains. These scenarios are designed such that complete exclusion of private data impedes task completion yet unrestricted information sharing could lead to substantial losses. We then evaluate the current state-of-the-art LLMs on (a) their understanding of contextually private data and (b) their ability to collaborate without violating user privacy. Empirical experiments demonstrate that current models, including GPT-4o and Claude-2.7-Sonnet, lack robust understanding of contextual privacy, misclassifying private data as shareable 25.2\% and 43.6\% of the time. In multi-turn conversations, these models disclose private information in 59.9\% and 50.5\% of cases even under explicit privacy instructions. Furthermore, multi-agent systems fail to complete tasks in 71\% of scenarios. These results underscore that current models are not aligned towards both contextual privacy preservation and collaborative task-solving.
- Abstract(参考訳): LLMベースのエージェントの普及により、スケジューリングやネゴシエーション、リソース割り当てといったタスクに対するエージェント間コラボレーションの展開が増加している。
このようなシステムでは、エージェントがプロプライエタリなツールやドメイン固有のデータベースにアクセスし、厳密な機密性を必要とするため、プライバシが重要となる。
本稿では,LLMをベースとしたエージェントがコンテキストプライバシの理解を実証するかどうかを検討する。
そして、もし指示されたら、これらのシステムは、非敵対的なマルチターン会話において、推測時間のユーザのプライバシを保存する。
LLMエージェントにおけるコンテキストプライバシを評価するための既存のベンチマークは、主に、プライベート情報を簡単に除外できる単一ターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
これらのシナリオは、プライベートデータの完全排除はタスクの完了を妨げるが、制限のない情報共有は重大な損失をもたらす可能性があるように設計されている。
次に、現状のLLMの評価を行う。
a) 文脈的にプライベートなデータの理解と
(b)ユーザーのプライバシーを侵害することなく協力する能力。
実証実験では、GPT-4oやClaude-2.7-Sonnetを含む現在のモデルでは、コンテキストプライバシの堅牢な理解が欠如しており、プライベートデータを共有可能な25.2\%と43.6\%と誤分類している。
マルチターン会話では、これらのモデルは、明示的なプライバシー命令の下でも59.9\%と50.5\%のケースでプライベート情報を開示する。
さらに、マルチエージェントシステムは71\%のシナリオでタスクを完了できない。
これらの結果は、現在のモデルがコンテキストのプライバシ保護と協調的なタスク解決の両方に一致していないことを裏付けている。
関連論文リスト
- Automated Privacy Information Annotation in Large Language Model Interactions [40.87806981624453]
実際の識別子の下で大きな言語モデル(LLM)と対話するユーザは、プライベート情報の開示を無意識にリスクを負うことが多い。
既存のプライバシ検出方法は、異なる目的とアプリケーションシナリオのために設計されました。
249Kのユーザクエリと154Kの注釈付きプライバシフレーズを備えた大規模多言語データセットを構築した。
論文 参考訳(メタデータ) (2025-05-27T09:00:12Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。