論文の概要: Tight and Practical Privacy Auditing for Differentially Private In-Context Learning
- arxiv url: http://arxiv.org/abs/2511.13502v1
- Date: Mon, 17 Nov 2025 15:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.334625
- Title: Tight and Practical Privacy Auditing for Differentially Private In-Context Learning
- Title(参考訳): 差分プライベートなインコンテキスト学習のための厳密で実践的なプライバシ監査
- Authors: Yuyang Xia, Ruixuan Liu, Li Xiong,
- Abstract要約: 大規模言語モデル(LLM)は、しばしばプライベートまたはプロプライエタリなデータを含むプロンプトデモからタスクに適応することで、コンテキスト内学習(ICL)を実行する。
本稿では,DP-ICLシステムに対する厳密で効率的なプライバシ監査フレームワークを提案する。
標準テキスト分類および生成ベンチマークの実験により,我々の経験的リーク推定値が分類タスクの理論的DP予算と密接に一致し,保守的な埋め込み感度境界による生成タスクが一貫して低下していることが示されている。
- 参考スコア(独自算出の注目度): 11.394805414546903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) perform in-context learning (ICL) by adapting to tasks from prompt demonstrations, which in practice often contain private or proprietary data. Although differential privacy (DP) with private voting is a pragmatic mitigation, DP-ICL implementations are error-prone, and worst-case DP bounds may substantially overestimate actual leakage, calling for practical auditing tools. We present a tight and efficient privacy auditing framework for DP-ICL systems that runs membership inference attacks and translates their success rates into empirical privacy guarantees using Gaussian DP. Our analysis of the private voting mechanism identifies vote configurations that maximize the auditing signal, guiding the design of audit queries that reliably reveal whether a canary demonstration is present in the context. The framework supports both black-box (API-only) and white-box (internal vote) threat models, and unifies auditing for classification and generation by reducing both to a binary decision problem. Experiments on standard text classification and generation benchmarks show that our empirical leakage estimates closely match theoretical DP budgets on classification tasks and are consistently lower on generation tasks due to conservative embedding-sensitivity bounds, making our framework a practical privacy auditor and verifier for real-world DP-ICL deployments.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしばプライベートまたはプロプライエタリなデータを含むプロンプトデモからタスクに適応することで、コンテキスト内学習(ICL)を実行する。
個人投票による差分プライバシー(DP)は現実的な緩和であるが、DP-ICLの実装はエラーを起こしやすく、最悪の場合のDP境界は実際のリークを著しく過大評価し、実際の監査ツールを要求できる。
本稿では,DP-ICLシステムに対する厳密で効率的なプライバシ監査フレームワークを提案する。
個人投票機構の分析により,監査信号の最大化を図った投票構成を特定し,その文脈にカナリア・デモが存在するかどうかを確実に明らかにする監査クエリの設計を指導する。
このフレームワークは、ブラックボックス(APIのみ)とホワイトボックス(内部投票)の脅威モデルの両方をサポートし、二分決定問題に還元することで、分類と生成のための監査を統一する。
標準テキスト分類および生成ベンチマークの実験により、我々の経験的リーク推定は、分類タスクの理論的DP予算と密接に一致し、保守的な埋め込み感度境界による生成タスクを一貫して減少させ、我々のフレームワークは現実のDP-ICLデプロイメントの実用的なプライバシ監査と検証を行う。
関連論文リスト
- SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference [3.8760740008451156]
本稿では,分散言語モデル (LLM) 推論のための公開検証プロトコルであるVeriLLMを紹介する。
VeriLLMは、軽量な経験的再実行と暗号的なコミットメントを組み合わせることで、検証者は基礎となる推論コストの約1%で結果を検証することができる。
We show that VeriLLM achieve reliable public verifiability with least overhead。
論文 参考訳(メタデータ) (2025-09-29T04:07:32Z) - AVEC: Bootstrapping Privacy for Local LLMs [0.0]
AVECは、ローカル言語モデルのプライバシーをブートストラップするフレームワークである。
委譲クエリの明確な検証性によって、エッジでプライバシを強制する。
論文 参考訳(メタデータ) (2025-09-10T07:59:01Z) - KV-Auditor: Auditing Local Differential Privacy for Correlated Key-Value Estimation [3.1960143210470973]
我々は,LDPに基づくキー値推定機構を監査するフレームワークであるKV-Auditorを提案する。
我々は、最先端のLPPキー値機構を対話型および非対話型に分類する。
インタラクティブなメカニズムのために、繰り返しにまたがるインクリメンタルなプライバシリークをキャプチャするためのセグメンテーション戦略を設計する。
論文 参考訳(メタデータ) (2025-08-15T14:17:24Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。