論文の概要: Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy
- arxiv url: http://arxiv.org/abs/2601.12922v1
- Date: Mon, 19 Jan 2026 10:26:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.859655
- Title: Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy
- Title(参考訳): プライバシは他のものに依存している - 個々の異なるプライバシにおける衝突脆弱性
- Authors: Johannes Kaiser, Alexander Ziller, Eleni Triantafillou, Daniel Rückert, Georgios Kaissis,
- Abstract要約: 個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
- 参考スコア(独自算出の注目度): 50.66105844449181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individual Differential Privacy (iDP) promises users control over their privacy, but this promise can be broken in practice. We reveal a previously overlooked vulnerability in sampling-based iDP mechanisms: while conforming to the iDP guarantees, an individual's privacy risk is not solely governed by their own privacy budget, but critically depends on the privacy choices of all other data contributors. This creates a mismatch between the promise of individual privacy control and the reality of a system where risk is collectively determined. We demonstrate empirically that certain distributions of privacy preferences can unintentionally inflate the privacy risk of individuals, even when their formal guarantees are met. Moreover, this excess risk provides an exploitable attack vector. A central adversary or a set of colluding adversaries can deliberately choose privacy budgets to amplify vulnerabilities of targeted individuals. Most importantly, this attack operates entirely within the guarantees of DP, hiding this excess vulnerability. Our empirical evaluation demonstrates successful attacks against 62% of targeted individuals, substantially increasing their membership inference susceptibility. To mitigate this, we propose $(\varepsilon_i,δ_i,\overlineΔ)$-iDP a privacy contract that uses $Δ$-divergences to provide users with a hard upper bound on their excess vulnerability, while offering flexibility to mechanism design. Our findings expose a fundamental challenge to the current paradigm, demanding a re-evaluation of how iDP systems are designed, audited, communicated, and deployed to make excess risks transparent and controllable.
- Abstract(参考訳): 個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
iDPの保証に従って、個人のプライバシリスクは、自身のプライバシ予算によってのみ管理されるのではなく、他のすべてのデータコントリビュータのプライバシ選択に依存する。
これにより、個々のプライバシコントロールの約束と、リスクが集合的に決定されるシステムの現実との間にミスマッチが生じます。
プライバシ優先の特定の分布が、正式な保証が満たされた場合でも、個人のプライバシリスクを意図せずに増大させることができることを実証的に実証する。
さらに、この過剰なリスクは、悪用可能な攻撃ベクトルを提供する。
中央の敵や一組の敵は、意図的にプライバシー予算を選択して、標的とする個人の脆弱性を増幅することができる。
最も重要なことは、この攻撃はDPの保証内で完全に動作し、この過剰な脆弱性を隠蔽する。
実験による評価では,対象者の62%に対する攻撃が成功し,メンバーシップ・インセプタビリティが著しく向上した。
これを緩和するために、$(\varepsilon_i,δ_i,\overlineΔ)$-iDPというプライバシー契約を提案します。
本研究は, iDPシステムの設計, 監査, 通信, 展開の方法を再評価し, 過度なリスクを透明化し, 制御可能にするという, 現行のパラダイムに対する根本的な課題を明らかにした。
関連論文リスト
- How to Get Actual Privacy and Utility from Privacy Models: the k-Anonymity and Differential Privacy Families [3.9894389299295514]
プライバシモデルは、プライバシ保護データパブリッシングと統計開示制御に導入された。
定義に問題があるため、適切な保護保証の提供に失敗する可能性がある。
k-匿名性のセマンティックな再構築は、ユーティリティを失うことなく、より堅牢なプライバシを提供することができる、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-13T11:41:12Z) - DPolicy: Managing Privacy Risks Across Multiple Releases with Differential Privacy [44.27723721899118]
差分プライバシー(DP)を用いた複数データリリースにおける累積プライバシーリスク管理システムDPolicyを提案する。
各リリースを個別に処理したり、単一の(グローバルな)DP保証を頼りにするような従来のアプローチとは異なり、当社のシステムは複数のDP保証を同時に検討する柔軟なフレームワークを採用している。
DPolicyは、プライバシー保証を形式化する高レベルのポリシー言語を導入し、伝統的にスコープとコンテキストに関する暗黙の仮定を明示している。
論文 参考訳(メタデータ) (2025-05-10T19:49:51Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。