論文の概要: Actual Knowledge Gain as Privacy Loss in Local Privacy Accounting
- arxiv url: http://arxiv.org/abs/2307.08159v3
- Date: Wed, 30 Apr 2025 06:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-10 03:16:41.568284
- Title: Actual Knowledge Gain as Privacy Loss in Local Privacy Accounting
- Title(参考訳): 地域プライバシ会計におけるプライバシ損失の実態
- Authors: Mingen Pan,
- Abstract要約: 本稿では、局所微分プライバシー(LDP)と、クエリ対象に固有の知識の学習に関する世界的制限の等価性を確立する。
LDPクエリからの出力は、学習限界の上限に匹敵する正確な知識を提供するために必ずしも必要ではない。
実際の知識獲得の最小上限は導出され、実現されたプライバシー損失と呼ばれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper establishes the equivalence between Local Differential Privacy (LDP) and a global limit on learning any knowledge specific to a queried object. However, an output from an LDP query is not necessarily required to provide exact amount of knowledge equal to the upper bound of the learning limit. The LDP guarantee can overestimate the amount of knowledge gained by an analyst from some outputs. To address this issue, the least upper bound on the actual knowledge gain is derived and referred to as realized privacy loss. This measure is also shown to serve as an upper bound for the actual g-leakage in quantitative information flow. The gap between the LDP guarantee and realized privacy loss motivates the exploration of a more efficient privacy accounting for fully adaptive composition, where an adversary adaptively selects queries based on prior results. The Bayesian Privacy Filter is introduced to continuously accept queries until the realized privacy loss of the composed queries equals the LDP guarantee of the composition, enabling the full utilization of the privacy budget of an object. The realized privacy loss also functions as a privacy odometer for the composed queries, allowing the remaining privacy budget to accurately represent the capacity to accept new queries. Additionally, a branch-and-bound method is devised to compute the realized privacy loss when querying against continuous values. Experimental results indicate that Bayesian Privacy Filter outperforms the basic composition by a factor of one to four when composing linear and logistic regressions.
- Abstract(参考訳): 本稿では、局所微分プライバシー(LDP)と、クエリ対象に固有の知識の学習に関する世界的制限の等価性を確立する。
しかし、LDPクエリからの出力は、学習限界の上限に匹敵する正確な知識を提供するために必ずしも必要ではない。
LDP保証は、あるアウトプットからアナリストが得た知識の量を過大評価することができる。
この問題に対処するために、実際の知識獲得の最小上限が導出され、実現されたプライバシー損失と呼ばれる。
この測度は、量的情報フローにおける実際のg値の上限としても機能することが示されている。
プライバシ損失の保証と実現との間にあるギャップは、より効率的なプライバシ会計の探索を動機付け、完全に適応的な構成をし、敵が事前の結果に基づいてクエリを適応的に選択する。
ベイズプライバシーフィルタは、合成されたクエリのプライバシ損失が合成のLDP保証と同等になるまでクエリを継続的に受け入れるように導入され、オブジェクトのプライバシ予算を完全に活用することができる。
実現されたプライバシ損失は、コンポジションクエリのプライバシオドメーターとしても機能し、残りのプライバシ予算が、新しいクエリを受け入れる能力の正確な表現を可能にする。
さらに、連続した値に対してクエリを行う際に、実現したプライバシ損失を計算するために、ブランチ・アンド・バウンド法が考案された。
実験結果から,線形およびロジスティック回帰を構成する場合,ベイズプライバシーフィルタは基本構成を1~4因子で上回ることがわかった。
関連論文リスト
- PrivaCI-Bench: Evaluating Privacy with Contextual Integrity and Legal Compliance [44.287734754038254]
生成型大規模言語モデル(LLM)のコンテキストプライバシ評価ベンチマークであるPrivaCI-Benchを提案する。
本稿では,最近の推論モデルQwQ-32BとDeepseek R1を含む最新のLCMを評価した。
実験の結果、LLMは特定のコンテキスト内で重要なCIパラメータを効果的にキャプチャできるが、プライバシコンプライアンスのさらなる進歩が必要であることが示唆された。
論文 参考訳(メタデータ) (2025-02-24T10:49:34Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Differential Confounding Privacy and Inverse Composition [32.85314813605347]
微分プライバシー(DP)を一般化するフレームワークであるDCPを導入する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如している。
Inverse Composition (IC) フレームワークを提案する。このフレームワークでは,最低ケースのプライバシ証明に頼ることなく,ターゲット保証を達成するためのプライバシ戦略を最適に設計する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。