論文の概要: PrivacyBench: A Conversational Benchmark for Evaluating Privacy in Personalized AI
- arxiv url: http://arxiv.org/abs/2512.24848v1
- Date: Wed, 31 Dec 2025 13:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.662342
- Title: PrivacyBench: A Conversational Benchmark for Evaluating Privacy in Personalized AI
- Title(参考訳): PrivacyBench: パーソナライズされたAIのプライバシを評価するための会話ベンチマーク
- Authors: Srija Mukhopadhyay, Sathwik Reddy, Shruthi Muthukumar, Jisun An, Ponnurangam Kumaraguru,
- Abstract要約: AIエージェントはユーザのデジタルフットプリントへのアクセスに依存しており、プライベートメールやチャット、購入履歴からの機密データを含むことが多い。
このアクセスは、基本的な社会的およびプライバシーリスクを生み出します。
埋め込みシークレットを含む社会的基盤データセットを備えたベンチマークであるPrivacyBenchを紹介する。
- 参考スコア(独自算出の注目度): 8.799432439533211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized AI agents rely on access to a user's digital footprint, which often includes sensitive data from private emails, chats and purchase histories. Yet this access creates a fundamental societal and privacy risk: systems lacking social-context awareness can unintentionally expose user secrets, threatening digital well-being. We introduce PrivacyBench, a benchmark with socially grounded datasets containing embedded secrets and a multi-turn conversational evaluation to measure secret preservation. Testing Retrieval-Augmented Generation (RAG) assistants reveals that they leak secrets in up to 26.56% of interactions. A privacy-aware prompt lowers leakage to 5.12%, yet this measure offers only partial mitigation. The retrieval mechanism continues to access sensitive data indiscriminately, which shifts the entire burden of privacy preservation onto the generator. This creates a single point of failure, rendering current architectures unsafe for wide-scale deployment. Our findings underscore the urgent need for structural, privacy-by-design safeguards to ensure an ethical and inclusive web for everyone.
- Abstract(参考訳): パーソナライズされたAIエージェントは、ユーザのデジタルフットプリントへのアクセスに依存する。
しかし、このアクセスは、社会的およびプライバシーの基本的なリスクを生み出す。社会的コンテキストの認識に欠けるシステムは、意図せずにユーザーの秘密を暴露し、デジタルの幸福を脅かす。
隠れた秘密を含む社会的基盤を持つデータセットと、秘密保存を測定するためのマルチターン会話評価を備えたベンチマークであるPrivacyBenchを紹介する。
Retrieval-Augmented Generation (RAG) アシスタントのテストでは、最大26.56%のインタラクションで秘密をリークしていることが明らかになった。
プライバシーを意識したプロンプトはリークを5.12%まで下げるが、この手段は部分的緩和のみを提供する。
検索メカニズムは機密データを無差別にアクセスし続け、プライバシー保護のすべての負担をジェネレータにシフトさせる。
これにより単一障害点が発生し、現在のアーキテクチャは大規模なデプロイメントでは安全ではない。
われわれの調査結果は、すべての人の倫理的かつ包括的なWebを確保するために、構造的かつプライバシーに配慮した安全対策を緊急に必要としていることを強調している。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Digital Privacy Under Attack: Challenges and Enablers [11.061112334099597]
我々は、匿名データ、統計集計、プライバシー保護モデルという3つのドメインをターゲットにした攻撃を体系的に分類する。
各カテゴリにおいて、攻撃方法、敵の能力、脆弱性メカニズムを解析する。
我々の分析によると、差分プライバシーは強力な理論的保証を提供するが、新たな攻撃に対する実装上の課題と潜在的な脆弱性に直面している。
論文 参考訳(メタデータ) (2023-02-18T08:34:34Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。