論文の概要: Evaluating Differential Privacy on Correlated Datasets Using Pointwise Maximal Leakage
- arxiv url: http://arxiv.org/abs/2502.05516v1
- Date: Sat, 08 Feb 2025 10:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:29:00.352044
- Title: Evaluating Differential Privacy on Correlated Datasets Using Pointwise Maximal Leakage
- Title(参考訳): ポイントワイズ最大リークを用いた相関データセットの差分プライバシー評価
- Authors: Sara Saeidian, Tobias J. Oechtering, Mikael Skoglund,
- Abstract要約: データ駆動の進歩はプライバシーに重大なリスクをもたらす。
差分プライバシーは プライバシー保護の 基盤になっている
私たちの研究は、微妙なプライバシーリスクの理解を深め、より効果的なプライバシー保護メカニズムの開発の必要性を強調することを目的としています。
- 参考スコア(独自算出の注目度): 38.4830633082184
- License:
- Abstract: Data-driven advancements significantly contribute to societal progress, yet they also pose substantial risks to privacy. In this landscape, differential privacy (DP) has become a cornerstone in privacy preservation efforts. However, the adequacy of DP in scenarios involving correlated datasets has sometimes been questioned and multiple studies have hinted at potential vulnerabilities. In this work, we delve into the nuances of applying DP to correlated datasets by leveraging the concept of pointwise maximal leakage (PML) for a quantitative assessment of information leakage. Our investigation reveals that DP's guarantees can be arbitrarily weak for correlated databases when assessed through the lens of PML. More precisely, we prove the existence of a pure DP mechanism with PML levels arbitrarily close to that of a mechanism which releases individual entries from a database without any perturbation. By shedding light on the limitations of DP on correlated datasets, our work aims to foster a deeper understanding of subtle privacy risks and highlight the need for the development of more effective privacy-preserving mechanisms tailored to diverse scenarios.
- Abstract(参考訳): データ駆動の進歩は社会の進歩に大きく貢献するが、プライバシーにもかなりのリスクをもたらす。
この状況では、差分プライバシー(DP)がプライバシー保護の取り組みの基盤となっている。
しかし、相関データセットを含むシナリオにおけるDPの妥当性は疑問視され、複数の研究が潜在的な脆弱性を示唆している。
本研究では,情報漏洩の定量的評価にPML(pointwise maximal leakage)の概念を活用することにより,関連するデータセットにDPを適用するというニュアンスを掘り下げる。
本研究は,PML のレンズを用いて評価した場合,DP の保証が相関データベースに対して任意に弱いことを明らかにする。
より正確には、PMLレベルを持つ純粋DP機構の存在が、摂動のないデータベースから個々のエントリを解放するメカニズムのそれに近いことを証明している。
我々の研究は、関連するデータセットに対するDPの限界に光を当てることで、微妙なプライバシーリスクの理解を深め、多様なシナリオに合わせたより効果的なプライバシー保護メカニズムの開発の必要性を強調することを目的としています。
関連論文リスト
- Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Differential Confounding Privacy and Inverse Composition [32.85314813605347]
微分プライバシー(DP)を一般化するフレームワークであるDCPを導入する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如している。
Inverse Composition (IC) フレームワークを提案する。このフレームワークでは,最低ケースのプライバシ証明に頼ることなく,ターゲット保証を達成するためのプライバシ戦略を最適に設計する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Conciliating Privacy and Utility in Data Releases via Individual Differential Privacy and Microaggregation [4.287502453001108]
$epsilon$-Differential Privacy(DP)は、強力なプライバシ保証を提供するよく知られたプライバシモデルである。
被験者にDPと同じ保護を提供しながらデータ歪みを低減させるiDP ($epsilon$-individual differential privacy) を提案する。
本稿では,2次データ解析の精度を著しく低下させることのない保護データを提供しながら,我々のアプローチが強力なプライバシ(小額のepsilon$)を提供することを示す実験について報告する。
論文 参考訳(メタデータ) (2023-12-21T10:23:18Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - DP-UTIL: Comprehensive Utility Analysis of Differential Privacy in
Machine Learning [3.822543555265593]
差別化プライバシ(DP)は、プライバシー漏洩を理由とする厳格な形式主義として浮上している。
機械学習(ML)では、DPはトレーニング例の限定/開示に使用されている。
ディープニューラルネットワークの場合、勾配の摂動はプライバシリークを低くする。
論文 参考訳(メタデータ) (2021-12-24T08:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。