論文の概要: PrivAct: Internalizing Contextual Privacy Preservation via Multi-Agent Preference Training
- arxiv url: http://arxiv.org/abs/2602.13840v1
- Date: Sat, 14 Feb 2026 18:07:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.45259
- Title: PrivAct: Internalizing Contextual Privacy Preservation via Multi-Agent Preference Training
- Title(参考訳): PrivAct:マルチエージェント推論トレーニングによるコンテキストプライバシ保護の内在化
- Authors: Yuhan Cheng, Hancheng Ye, Hai Helen Li, Jingwei Sun, Yiran Chen,
- Abstract要約: PrivActは、コンテキスト対応のプライバシーを意識したマルチエージェント学習フレームワークである。
プライバシに準拠したエージェントアクションのために、コンテキストプライバシ保護を直接モデルの生成動作に内部化する。
実験では、コンテキストのプライバシー保護が一貫した改善を示し、リーク率を最大12.32%削減した。
- 参考スコア(独自算出の注目度): 14.144464261335031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents are increasingly deployed in personalized tasks involving sensitive, context-dependent information, where privacy violations may arise in agents' action due to the implicitness of contextual privacy. Existing approaches rely on external, inference-time interventions which are brittle, scenario-specific, and may expand the privacy attack surface. We propose PrivAct, a contextual privacy-aware multi-agent learning framework that internalizes contextual privacy preservation directly into models' generation behavior for privacy-compliant agentic actions. By embedding privacy preferences into each agent, PrivAct enhances system-wide contextual integrity while achieving a more favorable privacy-helpfulness tradeoff. Experiments across multiple LLM backbones and benchmarks demonstrate consistent improvements in contextual privacy preservation, reducing leakage rates by up to 12.32% while maintaining comparable helpfulness, as well as zero-shot generalization and robustness across diverse multi-agent topologies. Code is available at https://github.com/chengyh23/PrivAct.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、コンテキストに依存した機密性の高い情報を含むパーソナライズされたタスクにますますデプロイされる。
既存のアプローチは、不安定でシナリオ固有の外部の推論時間の介入に依存しており、プライバシ攻撃面を拡張する可能性がある。
そこで我々は,プライバシに準拠したエージェント行動のためのモデル生成行動にコンテキストプライバシ保護を直接内包する,コンテキストプライバシを意識したマルチエージェント学習フレームワークであるPrivActを提案する。
プライバシの好みを各エージェントに埋め込むことで、PrivActはシステム全体のコンテキスト整合性を高め、より好ましいプライバシとヘルパフルネスのトレードオフを実現する。
複数のLDMバックボーンとベンチマークの実験では、コンテキストプライバシ保護における一貫した改善が示され、リーク率を最大12.32%削減し、同等の利便性を維持しながら、さまざまなマルチエージェントトポロジにおけるゼロショットの一般化とロバスト性を維持している。
コードはhttps://github.com/chengyh23/PrivAct.comで入手できる。
関連論文リスト
- 1-2-3 Check: Enhancing Contextual Privacy in LLM via Multi-Agent Reasoning [18.751008976082655]
プライバシ推論を専門のサブタスク(抽出,分類)に分解するマルチエージェントフレームワークを導入する。
情報フロートポロジに対して系統的なアブレーションを行い、上流検出がダウンストリームリークにカスケードを間違えた理由を明らかにした。
論文 参考訳(メタデータ) (2025-08-11T06:34:09Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Token-Level Privacy in Large Language Models [7.4143291213663955]
本稿では,文脈情報と意味情報を統合するトークンレベルの新しいプライバシ保護機構であるdchi-stencilを紹介する。
意味的ニュアンスと文脈的ニュアンスの両方を取り入れることで、dchi-stencilはプライバシとユーティリティの堅牢なバランスを実現する。
この研究は、現代の高リスクアプリケーションにおけるプライバシ保護NLPの新しい標準を設定するためのdchi-stencilの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-05T16:27:25Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。