論文の概要: 1-2-3 Check: Enhancing Contextual Privacy in LLM via Multi-Agent Reasoning
- arxiv url: http://arxiv.org/abs/2508.07667v1
- Date: Mon, 11 Aug 2025 06:34:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.971558
- Title: 1-2-3 Check: Enhancing Contextual Privacy in LLM via Multi-Agent Reasoning
- Title(参考訳): 1-2-3 マルチエージェント推論によるLCMのコンテキストプライバシ向上チェック
- Authors: Wenkai Li, Liwen Sun, Zhenxiang Guan, Xuhui Zhou, Maarten Sap,
- Abstract要約: プライバシ推論を専門のサブタスク(抽出,分類)に分解するマルチエージェントフレームワークを導入する。
情報フロートポロジに対して系統的なアブレーションを行い、上流検出がダウンストリームリークにカスケードを間違えた理由を明らかにした。
- 参考スコア(独自算出の注目度): 18.751008976082655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Addressing contextual privacy concerns remains challenging in interactive settings where large language models (LLMs) process information from multiple sources (e.g., summarizing meetings with private and public information). We introduce a multi-agent framework that decomposes privacy reasoning into specialized subtasks (extraction, classification), reducing the information load on any single agent while enabling iterative validation and more reliable adherence to contextual privacy norms. To understand how privacy errors emerge and propagate, we conduct a systematic ablation over information-flow topologies, revealing when and why upstream detection mistakes cascade into downstream leakage. Experiments on the ConfAIde and PrivacyLens benchmark with several open-source and closed-sourced LLMs demonstrate that our best multi-agent configuration substantially reduces private information leakage (\textbf{18\%} on ConfAIde and \textbf{19\%} on PrivacyLens with GPT-4o) while preserving the fidelity of public content, outperforming single-agent baselines. These results highlight the promise of principled information-flow design in multi-agent systems for contextual privacy with LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)が複数のソース(例えば、プライベートおよびパブリック情報とのミーティングを要約するなど)から情報を処理するインタラクティブな環境では、コンテキストプライバシの懸念に対処することは依然として困難である。
本稿では,プライバシ推論を特別なサブタスク(抽出,分類)に分解するマルチエージェントフレームワークを提案する。
プライバシエラーの発生と伝播を理解するために、情報フロートポロジに対して体系的なアブレーションを行い、上流検出がダウンストリームリークにカスケードした理由と原因を明らかにする。
ConfAIdeとPrivacyLensベンチマークにおけるいくつかのオープンソースおよびクローズドソースのLCMによる実験では、最高のマルチエージェント構成は、公開コンテンツの忠実さを維持しながら、単一エージェントベースラインを上回るパフォーマンスで、プライベート情報漏洩(ConfAIdeでは\textbf{18\%}、GPT-4oではPrivacyLensでは \textbf{19\%})を大幅に低減します。
これらの結果は、LLMによるコンテキストプライバシのためのマルチエージェントシステムにおける原則的情報フロー設計の可能性を浮き彫りにした。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Automated Privacy Information Annotation in Large Language Model Interactions [40.87806981624453]
実際の識別子の下で大きな言語モデル(LLM)と対話するユーザは、プライベート情報の開示を無意識にリスクを負うことが多い。
既存のプライバシ検出方法は、異なる目的とアプリケーションドメインのために設計されている。
249Kのユーザクエリと154Kの注釈付きプライバシフレーズを備えた大規模多言語データセットを構築した。
論文 参考訳(メタデータ) (2025-05-27T09:00:12Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。