論文の概要: Multi-user Pufferfish Privacy
- arxiv url: http://arxiv.org/abs/2512.18632v1
- Date: Sun, 21 Dec 2025 08:06:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.429097
- Title: Multi-user Pufferfish Privacy
- Title(参考訳): マルチユーザフグのプライバシ
- Authors: Ni Ding, Songpei Lu, Wenjing Yang, Zijian Zhang,
- Abstract要約: pufferfishのプライバシは、ユーザが報告したデータ値を変更し、システムを離れ、異なるランダム性で別のユースケースに置き換えられた時に達成される。
個人データの無関心化は、ユーザの統計にのみ条件付けされていることが明らかとなった。
- 参考スコア(独自算出の注目度): 14.539311802632676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies how to achieve individual indistinguishability by pufferfish privacy in aggregated query to a multi-user system. It is assumed that each user reports realization of a random variable. We study how to calibrate Laplace noise, added to the query answer, to attain pufferfish privacy when user changes his/her reported data value, leaves the system and is replaced by another use with different randomness. Sufficient conditions are derived for all scenarios for attaining statistical indistinguishability on four sets of secret pairs. They are derived using the existing Kantorovich method (Wasserstain metric of order $1$). These results can be applied to attain indistinguishability when a certain class of users is added or removed from a tabular data. It is revealed that attaining indifference in individual's data is conditioned on the statistics of this user only. For binary (Bernoulli distributed) random variables, the derived sufficient conditions can be further relaxed to reduce the noise and improve data utility.
- Abstract(参考訳): 本稿では,多ユーザシステムへの集約クエリにおけるフグのプライバシによる個人識別性の向上について検討する。
各ユーザがランダム変数の実現を報告していると仮定する。
ユーザが報告したデータ値を変更し、システムを離れ、異なるランダム性を持つ別の用途に置き換える際に、クエリー応答に追加されるLaplaceノイズの校正方法について検討する。
十分条件は、4組の秘密対上で統計的不明瞭性を達成するためのすべてのシナリオに対して導出される。
これらは既存のカントロビッチ法(Wasserstain metric of order $1$)を用いて導出される。
これらの結果は、ある種類のユーザが、表データから追加または削除されたときに、区別不能となるように応用できる。
個人データの無関心化は、ユーザの統計にのみ条件付けされていることが明らかとなった。
バイナリ(ベルヌーリ分布)のランダム変数の場合、導出した十分な条件は、ノイズを低減し、データの有用性を改善するためにさらに緩和することができる。
関連論文リスト
- Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - Improving Statistical Privacy by Subsampling [0.0]
プライバシメカニズムとしてよく使われるのは、クエリに応答するデータのサンプルを取得することだ。
本論文は, 統計的条件下で, サンプリング方法の違いが, プライバシを増加させるかどうかを, 正確に検証する。
DP設定のトレードオフ関数は (epsilon,delta)-pairs よりもプライバシーの指標として提案されている。
論文 参考訳(メタデータ) (2025-04-15T17:40:45Z) - Approximation of Pufferfish Privacy for Gaussian Priors [6.2584995033090625]
また,各識別シークレットペアに設定されたガウス分布の平均と分散の差に,付加的なラプラスノイズが校正された場合,$(epsilon, delta)$-pufferfishのプライバシが達成されることを示す。
典型的なアプリケーションは、和(または平均)クエリのプライベートリリースである。
論文 参考訳(メタデータ) (2024-01-22T22:43:38Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Algorithms for bounding contribution for histogram estimation under
user-level privacy [37.406400590568644]
ユーザレベルの差分プライバシー下でのヒストグラム推定の問題点について検討する。
目標は、単一のユーザのすべてのエントリのプライバシを維持することだ。
ヒストグラム推定のための最適なユーザコントリビューションを選択するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-07T04:53:24Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。