論文の概要: Cape: Context-Aware Prompt Perturbation Mechanism with Differential Privacy
- arxiv url: http://arxiv.org/abs/2505.05922v2
- Date: Thu, 15 May 2025 09:31:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 12:00:18.747221
- Title: Cape: Context-Aware Prompt Perturbation Mechanism with Differential Privacy
- Title(参考訳): Cape: 異なるプライバシを持つコンテキスト認識型プロンプト摂動機構
- Authors: Haoqi Wu, Wei Dai, Li Wang, Qiang Yan,
- Abstract要約: 既存のソリューションは、そのようなリスクを軽減するためにプライバシー強化技術に依存している。
差分プライバシーに基づく文脈認識型プロンプト機構であるCapeを提案する。
トークンの類似性をよりよくキャプチャするハイブリッドユーティリティ関数を導入する。
- 参考スコア(独自算出の注目度): 6.868738974192559
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have gained significant popularity due to their remarkable capabilities in text understanding and generation. However, despite their widespread deployment in inference services such as ChatGPT, concerns about the potential leakage of sensitive user data have arisen. Existing solutions primarily rely on privacy-enhancing technologies to mitigate such risks, facing the trade-off among efficiency, privacy, and utility. To narrow this gap, we propose Cape, a context-aware prompt perturbation mechanism based on differential privacy, to enable efficient inference with an improved privacy-utility trade-off. Concretely, we introduce a hybrid utility function that better captures the token similarity. Additionally, we propose a bucketized sampling mechanism to handle large sampling space, which might lead to long-tail phenomenons. Extensive experiments across multiple datasets, along with ablation studies, demonstrate that Cape achieves a better privacy-utility trade-off compared to prior state-of-the-art works.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を持つため、大きな人気を集めている。
しかし、ChatGPTのような推論サービスに広く展開されているにもかかわらず、センシティブなユーザーデータの漏洩が懸念されている。
既存のソリューションは主に、そのリスクを軽減するためにプライバシー強化技術に依存しており、効率性、プライバシー、ユーティリティのトレードオフに直面している。
このギャップを狭めるために、異なるプライバシーに基づく文脈対応のプロンプト摂動機構であるCapeを提案し、プライバシーとユーティリティのトレードオフを改善した効率的な推論を可能にする。
具体的には,トークンの類似性をよりよく捉えるハイブリッドユーティリティ関数を提案する。
さらに, 大規模なサンプリング空間を扱うためのバケット化サンプリング機構を提案し, 長い尾現象を引き起こす可能性がある。
複数のデータセットにわたる大規模な実験とアブレーション研究は、Capeがこれまでの最先端の作業と比べて、プライバシーとユーティリティのトレードオフを良く達成していることを示している。
関連論文リスト
- Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Meeting Utility Constraints in Differential Privacy: A Privacy-Boosting Approach [7.970280110429423]
本稿では,ほとんどのノイズ付加型DP機構と互換性のあるプライバシブースティングフレームワークを提案する。
私たちのフレームワークは、ユーティリティ要件を満たすために、サポートの望ましいサブセットに出力が落ちる可能性を高める。
提案手法は,実用性制約下での標準DP機構よりも低いプライバシー損失を実現する。
論文 参考訳(メタデータ) (2024-12-13T23:34:30Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。