論文の概要: Contextualized Privacy Defense for LLM Agents
- arxiv url: http://arxiv.org/abs/2603.02983v1
- Date: Tue, 03 Mar 2026 13:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.817438
- Title: Contextualized Privacy Defense for LLM Agents
- Title(参考訳): LLMエージェントのコンテキスト化プライバシ保護
- Authors: Yule Wen, Yanzhe Zhang, Jianxun Lian, Xiaoyuan Yi, Xing Xie, Diyi Yang,
- Abstract要約: LLMエージェントはますますユーザーの個人情報に作用するが、既存のプライバシー保護は設計と適応性の両方において制限されている。
我々は,新たなプライバシ防衛パラダイムであるCDI(Contextualized Defense Instructing)を提案する。
我々のCDIは、ベースラインよりもプライバシー保護(94.2%)と有用性(80.6%)のバランスが良好であることを示します。
- 参考スコア(独自算出の注目度): 84.30907378390512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM agents increasingly act on users' personal information, yet existing privacy defenses remain limited in both design and adaptability. Most prior approaches rely on static or passive defenses, such as prompting and guarding. These paradigms are insufficient for supporting contextual, proactive privacy decisions in multi-step agent execution. We propose Contextualized Defense Instructing (CDI), a new privacy defense paradigm in which an instructor model generates step-specific, context-aware privacy guidance during execution, proactively shaping actions rather than merely constraining or vetoing them. Crucially, CDI is paired with an experience-driven optimization framework that trains the instructor via reinforcement learning (RL), where we convert failure trajectories with privacy violations into learning environments. We formalize baseline defenses and CDI as distinct intervention points in a canonical agent loop, and compare their privacy-helpfulness trade-offs within a unified simulation framework. Results show that our CDI consistently achieves a better balance between privacy preservation (94.2%) and helpfulness (80.6%) than baselines, with superior robustness to adversarial conditions and generalization.
- Abstract(参考訳): LLMエージェントはますますユーザーの個人情報に作用するが、既存のプライバシー保護は設計と適応性の両方において制限されている。
従来のアプローチのほとんどは、プロンプトやガードなど、静的またはパッシブな防御に依存していた。
これらのパラダイムは、マルチステップエージェントの実行においてコンテキスト的かつ積極的なプライバシ決定をサポートするには不十分である。
本研究では,実行中のステップ固有でコンテキスト対応のプライバシガイダンスを生成する新たなプライバシ保護パラダイムであるCDI(Contextualized Defense Instructing)を提案する。
重要な点として、CDIは、強化学習(RL)を通じてインストラクターを訓練するエクスペリエンス駆動最適化フレームワークと組み合わせて、プライバシ違反による障害トラジェクトリを学習環境に変換する。
我々は,標準エージェントループにおいて,ベースラインディフェンスとCDIを個別の介入点として定式化し,統一シミュレーションフレームワーク内でのプライバシ・ヘルパフルネスのトレードオフを比較した。
その結果、我々のCDIは、ベースラインよりもプライバシー保護(94.2%)と援助(80.6%)のバランスが良く、敵の条件や一般化に対する堅牢性に優れていた。
関連論文リスト
- PrivAct: Internalizing Contextual Privacy Preservation via Multi-Agent Preference Training [14.144464261335031]
PrivActは、コンテキスト対応のプライバシーを意識したマルチエージェント学習フレームワークである。
プライバシに準拠したエージェントアクションのために、コンテキストプライバシ保護を直接モデルの生成動作に内部化する。
実験では、コンテキストのプライバシー保護が一貫した改善を示し、リーク率を最大12.32%削減した。
論文 参考訳(メタデータ) (2026-02-14T18:07:51Z) - Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks [13.326888254423901]
VLMベースの属性推論攻撃は、ソーシャルメディア上で共有された画像から、敵対者が個人属性を推測できるようにする、深刻なプライバシー上の懸念として浮上している。
本稿では,視覚的制約下でのプライバシー抑制とユーティリティ保護を協調的に最適化する新しい保護手法を提案する。
提案手法は, PARを25%以下に効果的に削減し, NPARを88%以上に抑えるとともに, 未確認・言い換えのプライバシー問題に対してよく一般化する。
論文 参考訳(メタデータ) (2025-12-20T08:08:50Z) - Privacy in Action: Towards Realistic Privacy Mitigation and Evaluation for LLM-Powered Agents [40.39717403627143]
モデルに依存しないコンテキスト整合性に基づく緩和アプローチであるPrivacyCheckerを提案する。
静的ベンチマークを動的MPPとA2A環境に変換するPrivacyLens-Liveも導入しています。
私たちのデータとコードはhttps://aka.ms/privacy_in_action.orgで公開されます。
論文 参考訳(メタデータ) (2025-09-22T08:19:06Z) - The Sum Leaks More Than Its Parts: Compositional Privacy Risks and Mitigations in Multi-Agent Collaboration [72.33801123508145]
大規模言語モデル(LLM)はマルチエージェントシステムに不可欠なものである。
プライバシーリスクは、暗記、直接推論、シングルターン評価を超えて現れる。
特に、相互作用によって構成される一見無害な反応は、敵が機密情報の回復を累積的に行うことができる。
論文 参考訳(メタデータ) (2025-09-16T16:57:25Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - Real-Time Privacy Risk Measurement with Privacy Tokens for Gradient Leakage [15.700803673467641]
プライバシーに敏感なドメインにおけるディープラーニングモデルは、プライバシーリスクに関する懸念を増幅している。
トレーニング中にプライベート勾配から直接導出されるプライバシートークンの概念を提案する。
プライバシートークンは、トレーニングデータからのプライベート情報漏洩の程度に関する貴重な洞察を提供する。
我々は、トレーニングデータと勾配の関係を定量化するために、Mutual Information (MI) をロバストな指標として採用する。
論文 参考訳(メタデータ) (2025-02-05T06:20:20Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。