論文の概要: Context-aware Privacy Bounds for Linear Queries
- arxiv url: http://arxiv.org/abs/2601.02855v1
- Date: Tue, 06 Jan 2026 09:34:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.872976
- Title: Context-aware Privacy Bounds for Linear Queries
- Title(参考訳): リニアクエリのためのコンテキスト対応プライバシ境界
- Authors: Heng Zhao, Sara Saeidian, Tobias J. Oechtering,
- Abstract要約: 最大漏洩点レンズを用いてLaplace機構のプライバシ解析を再検討する。
DPフレームワークの分布に依存しない定義は、しばしば過度なノイズを課すことを実証する。
- 参考スコア(独自算出の注目度): 18.643148110719736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear queries, as the basis of broad analysis tasks, are often released through privacy mechanisms based on differential privacy (DP), the most popular framework for privacy protection. However, DP adopts a context-free definition that operates independently of the data-generating distribution. In this paper, we revisit the privacy analysis of the Laplace mechanism through the lens of pointwise maximal leakage (PML). We demonstrate that the distribution-agnostic definition of the DP framework often mandates excessive noise. To address this, we incorporate an assumption about the prior distribution by lower-bounding the probability of any single record belonging to any specific class. With this assumption, we derive a tight, context-aware leakage bound for general linear queries, and prove that our derived bound is strictly tighter than the standard DP guarantee and converges to the DP guarantee as this probability lower bound approaches zero. Numerical evaluations demonstrate that by exploiting this prior knowledge, the required noise scale can be reduced while maintaining privacy guarantees.
- Abstract(参考訳): 幅広い分析タスクの基礎となる線形クエリは、しばしば、プライバシー保護のための最も人気のあるフレームワークである差分プライバシー(DP)に基づくプライバシーメカニズムを通じてリリースされる。
しかし、DPはデータ生成ディストリビューションとは独立して動作する文脈自由定義を採用している。
本稿では,PML(pointwise maximal leakage)のレンズを用いて,Laplace機構のプライバシ解析を再検討する。
DPフレームワークの分布に依存しない定義は、しばしば過度なノイズを課すことを実証する。
これを解決するために、特定のクラスに属する任意の単一レコードの確率を低くすることで、事前分布に関する仮定を組み込む。
この仮定により、一般線形クエリに対して厳密でコンテキスト対応なリークバウンダリを導出し、我々の導出したバウンダリが標準DP保証よりも厳密であることを証明するとともに、この確率の低いバウンダリが0に近づくと、DP保証に収束する。
数値的な評価は、この事前知識を利用することで、プライバシー保証を維持しつつ、必要なノイズスケールを低減できることを示している。
関連論文リスト
- A Tight Context-aware Privacy Bound for Histogram Publication [15.762008564991207]
我々は、PML(pointwise maximal leakage)レンズを通してデータセットのヒストグラムを放出するLaplace機構のプライバシー保証を分析する。
それぞれのヒストグラムビンの確率をゼロから切り離すと、より強いプライバシー保護が一定レベルのノイズに対して達成されることを示す。
論文 参考訳(メタデータ) (2025-08-26T09:12:23Z) - Verifiable Exponential Mechanism for Median Estimation [4.083860866484599]
本稿では,zk-SNARKを用いた指数関数機構の最初の検証実装を提案する。
具体的応用として、最初の検証可能な微分プライベート(DP)中央値推定法を示す。
論文 参考訳(メタデータ) (2025-05-22T05:31:22Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。