論文の概要: Differential Confounding Privacy and Inverse Composition
- arxiv url: http://arxiv.org/abs/2408.12010v2
- Date: Tue, 21 Jan 2025 17:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:14:24.993447
- Title: Differential Confounding Privacy and Inverse Composition
- Title(参考訳): プライバシーの相違と逆合成
- Authors: Tao Zhang, Bradley A. Malin, Netanel Raviv, Yevgeniy Vorobeychik,
- Abstract要約: 微分プライバシー(DP)を一般化するフレームワークであるDCPを導入する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如している。
Inverse Composition (IC) フレームワークを提案する。このフレームワークでは,最低ケースのプライバシ証明に頼ることなく,ターゲット保証を達成するためのプライバシ戦略を最適に設計する。
- 参考スコア(独自算出の注目度): 32.85314813605347
- License:
- Abstract: Differential privacy (DP) has become the gold standard for privacy-preserving data analysis, but its applicability can be limited in scenarios involving complex dependencies between sensitive information and datasets. To address this, we introduce Differential Confounding Privacy (DCP), a framework that generalizes DP by accounting for broader causal relationships between secrets and datasets. DCP adopts the $(\epsilon, \delta)$-privacy framework to quantify privacy loss, particularly under the composition of multiple mechanisms accessing the same dataset. We show that while DCP mechanisms retain privacy guarantees under composition, they lack the graceful compositional properties of DP. To overcome this, we propose an Inverse Composition (IC) framework, where a leader-follower model optimally designs a privacy strategy to achieve target guarantees without relying on worst-case privacy proofs. Experimental results validate IC's effectiveness in managing privacy budgets and ensuring rigorous privacy guarantees under composition.
- Abstract(参考訳): 差分プライバシー(DP)は、プライバシを保存するデータ分析のゴールドスタンダードとなっているが、その適用性は機密情報とデータセット間の複雑な依存関係を含むシナリオに限定される可能性がある。
これを解決するために、機密とデータセット間のより広範な因果関係を考慮し、DPを一般化するフレームワークであるdifferial Confounding Privacy(DCP)を導入する。
DCPはプライバシ損失を定量化するために$(\epsilon, \delta)$-privacyフレームワークを採用している。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如していることが示されている。
これを解決するために、リーダー・フォロワーモデルが最悪のプライバシー証明に頼ることなく、ターゲット保証を達成するためのプライバシー戦略を最適に設計する逆構成(IC)フレームワークを提案する。
実験結果は、ICがプライバシー予算を管理し、厳格なプライバシー保証を構成下に置くことの有効性を検証する。
関連論文リスト
- Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。