論文の概要: Parallel Composition for Statistical Privacy
- arxiv url: http://arxiv.org/abs/2602.09627v1
- Date: Tue, 10 Feb 2026 10:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.493222
- Title: Parallel Composition for Statistical Privacy
- Title(参考訳): 統計プライバシーのための並列合成
- Authors: Dennis Breutigam, Rüdiger Reischuk,
- Abstract要約: データベースのサブサンプリングとランダムなパーティショニングに基づいて、クエリ間の依存関係をバインドするプライバシーメカニズムが提案されている。
これらの境界は、分散のエントロピーを考慮に入れた現実的なアプリケーションシナリオにおいて、プライバシと精度保証の改善をもたらすことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential Privacy (DP) considers a scenario in which an adversary has almost complete information about the entries of a database. This worst-case assumption is likely to overestimate the privacy threat faced by an individual in practice. In contrast, Statistical Privacy (SP), as well as related notions such as noiseless privacy or limited background knowledge privacy, describe a setting in which the adversary knows the distribution of the database entries, but not their exact realizations. In this case, privacy analysis must account for the interaction between uncertainty induced by the entropy of the underlying distributions and privacy mechanisms that distort query answers, which can be highly non-trivial. This paper investigates this problem for multiple queries (composition). A privacy mechanism is proposed that is based on subsampling and randomly partitioning the database to bound the dependency among queries. This way for the first time, to the best of our knowledge, upper privacy bounds against limited adversaries are obtained without any further restriction on the database. These bounds show that in realistic application scenarios taking the entropy of distributions into account yields improvements of privacy and precision guarantees. We illustrate examples where for fixed privacy parameters and utility loss SP allows significantly more queries than DP.
- Abstract(参考訳): 差分プライバシー(DP)は、敵がデータベースのエントリについてほぼ完全な情報を持っているシナリオを考察する。
この最悪の仮定は、実際に個人が直面しているプライバシーの脅威を過大評価する可能性が高い。
対照的に、統計的プライバシ(SP)やノイズレスプライバシや限られたバックグラウンド知識プライバシといった関連する概念は、敵がデータベースエントリの分布を知っているが、正確な実現はしていない設定を記述している。
この場合、プライバシー分析は、基礎となる分布のエントロピーによって引き起こされる不確実性と、クエリ応答を歪ませるプライバシーメカニズムの間の相互作用を考慮しなければならない。
本稿では,複数問合せ(合成)におけるこの問題について検討する。
データベースのサブサンプリングとランダムなパーティショニングに基づいて、クエリ間の依存関係をバインドするプライバシメカニズムを提案する。
この方法で初めて、私たちの知る限り、データベースにこれ以上制限を加えることなく、限られた敵に対する上位プライバシー境界が得られます。
これらの境界は、分散のエントロピーを考慮に入れた現実的なアプリケーションシナリオにおいて、プライバシと精度保証の改善をもたらすことを示している。
固定プライバシパラメータとユーティリティ損失SPがDPよりもはるかに多くのクエリを可能にした例を示す。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Improving Statistical Privacy by Subsampling [0.0]
プライバシメカニズムとしてよく使われるのは、クエリに応答するデータのサンプルを取得することだ。
本論文は, 統計的条件下で, サンプリング方法の違いが, プライバシを増加させるかどうかを, 正確に検証する。
DP設定のトレードオフ関数は (epsilon,delta)-pairs よりもプライバシーの指標として提案されている。
論文 参考訳(メタデータ) (2025-04-15T17:40:45Z) - Statistical Privacy [0.0]
本稿では,データベース生成時の分布を敵が把握している状況について考察する。
分布のエントロピーが、プロパティクエリと呼ばれる大規模なクエリのプライバシを如何に保証しているかを詳細に分析する。
論文 参考訳(メタデータ) (2025-01-22T14:13:44Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Privately Answering Queries on Skewed Data via Per Record Differential Privacy [8.376475518184883]
我々はプライバシ・フォーマリズムを提案し、PzCDP(0集中差分プライバシー)を記録単位とする。
異なるレコードに対して異なるプライバシー損失を提供する他の形式主義とは異なり、PRzCDPのプライバシー損失は機密データに明示的に依存する。
論文 参考訳(メタデータ) (2023-10-19T15:24:49Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。