論文の概要: Probabilistic Counters for Privacy Preserving Data Aggregation
- arxiv url: http://arxiv.org/abs/2003.11446v5
- Date: Sun, 01 Jun 2025 21:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 19:24:15.872381
- Title: Probabilistic Counters for Privacy Preserving Data Aggregation
- Title(参考訳): データアグリゲーションを保持するプライバシー保護のための確率的カウンタ
- Authors: Dominik Bojko, Krzysztof Grining, Marek Klonowski,
- Abstract要約: 確率的カウンタは、余分なランダム化なしにプライバシ保護機構として使用できることを示す。
モリスカウンタとマックスジオカウンタに基づく特定のプライバシー保護データアグリゲーションプロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.24578723416255746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probabilistic counters are well-known tools often used for space-efficient set cardinality estimation. In this paper, we investigate probabilistic counters from the perspective of preserving privacy. We use the standard, rigid differential privacy notion. The intuition is that the probabilistic counters do not reveal too much information about individuals but provide only general information about the population. Therefore, they can be used safely without violating the privacy of individuals. However, it turned out, that providing a precise, formal analysis of the privacy parameters of probabilistic counters is surprisingly difficult and needs advanced techniques and a very careful approach. We demonstrate that probabilistic counters can be used as a privacy protection mechanism without extra randomization. Namely, the inherent randomization from the protocol is sufficient for protecting privacy, even if the probabilistic counter is used multiple times. In particular, we present a specific privacy-preserving data aggregation protocol based on Morris Counter and MaxGeo Counter. Some of the presented results are devoted to counters that have not been investigated so far from the perspective of privacy protection. Another part is an improvement of previous results. We show how our results can be used to perform distributed surveys and compare the properties of counter-based solutions and a standard Laplace method.
- Abstract(参考訳): 確率カウンタ(英: Probabilistic counters)は、空間効率のよい集合の濃度推定によく用いられるツールである。
本稿では,プライバシ保護の観点から確率的カウンタを考察する。
私たちは、標準的で厳格な差分プライバシーの概念を使用します。
直観では、確率的カウンターは個人に関する情報を多く明らかにするだけでなく、人口に関する一般的な情報のみを提供する。
そのため、個人のプライバシーを侵害することなく安全に使用することができる。
しかし、確率的カウンタのプライバシーパラメータの正確で正式な分析を提供することは驚くほど困難であり、高度な技術と非常に慎重なアプローチが必要であることが判明した。
確率的カウンタは、余分なランダム化なしにプライバシ保護機構として使用できることを示す。
すなわち、確率的カウンタを複数回使用しても、プロトコルから固有のランダム化はプライバシーを保護するのに十分である。
特に,モリスカウンタとマックスジオカウンタに基づく特定のプライバシー保護データアグリゲーションプロトコルを提案する。
提示された結果のいくつかは、プライバシー保護の観点からは調査されていないカウンタに特化している。
もう1つの部分は、以前の結果の改善です。
本稿では,この結果を用いて分散サーベイを行い,カウンタベースのソリューションと標準のLaplace手法の特性を比較した。
関連論文リスト
- Improving Statistical Privacy by Subsampling [0.0]
プライバシメカニズムとしてよく使われるのは、クエリに応答するデータのサンプルを取得することだ。
本論文は, 統計的条件下で, サンプリング方法の違いが, プライバシを増加させるかどうかを, 正確に検証する。
DP設定のトレードオフ関数は (epsilon,delta)-pairs よりもプライバシーの指標として提案されている。
論文 参考訳(メタデータ) (2025-04-15T17:40:45Z) - Statistical Privacy [0.0]
本稿では,データベース生成時の分布を敵が把握している状況について考察する。
分布のエントロピーが、プロパティクエリと呼ばれる大規模なクエリのプライバシを如何に保証しているかを詳細に分析する。
論文 参考訳(メタデータ) (2025-01-22T14:13:44Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。