論文の概要: Interpreting Differential Privacy in Terms of Disclosure Risk
- arxiv url: http://arxiv.org/abs/2507.09699v1
- Date: Sun, 13 Jul 2025 16:20:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.775005
- Title: Interpreting Differential Privacy in Terms of Disclosure Risk
- Title(参考訳): 開示リスクの観点からの差別的プライバシーの解釈
- Authors: Zeki Kazan, Sagar Sharma, Wanrong Zhang, Bo Jiang, Qiang Yan,
- Abstract要約: 差分プライバシーと統計的開示リスクの尺度の新たな関係を示す。
我々は、専門家や非専門家がこれらの結果を使ってDP保証を説明する方法について提案する。
- 参考スコア(独自算出の注目度): 8.236691013291452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of differential privacy (DP) becomes widespread, the development of effective tools for reasoning about the privacy guarantee becomes increasingly critical. In pursuit of this goal, we demonstrate novel relationships between DP and measures of statistical disclosure risk. We suggest how experts and non-experts can use these results to explain the DP guarantee, interpret DP composition theorems, select and justify privacy parameters, and identify worst-case adversary prior probabilities.
- Abstract(参考訳): 差分プライバシー(DP)の利用が広まるにつれ、プライバシー保証について推論するための効果的なツールの開発がますます重要になっている。
この目的を追求するために,DPと統計的開示リスクの尺度との新たな関係を実証する。
専門家や非専門家は、これらの結果を用いて、DP保証の説明、DP合成定理の解釈、プライバシパラメータの選択と正当化、最悪の場合の逆の事前確率の特定が可能であることを提案する。
関連論文リスト
- DPolicy: Managing Privacy Risks Across Multiple Releases with Differential Privacy [44.27723721899118]
差分プライバシー(DP)を用いた複数データリリースにおける累積プライバシーリスク管理システムDPolicyを提案する。
各リリースを個別に処理したり、単一の(グローバルな)DP保証を頼りにするような従来のアプローチとは異なり、当社のシステムは複数のDP保証を同時に検討する柔軟なフレームワークを採用している。
DPolicyは、プライバシー保証を形式化する高レベルのポリシー言語を導入し、伝統的にスコープとコンテキストに関する暗黙の仮定を明示している。
論文 参考訳(メタデータ) (2025-05-10T19:49:51Z) - Evaluating Differential Privacy on Correlated Datasets Using Pointwise Maximal Leakage [38.4830633082184]
データ駆動の進歩はプライバシーに重大なリスクをもたらす。
差分プライバシーは プライバシー保護の 基盤になっている
私たちの研究は、微妙なプライバシーリスクの理解を深め、より効果的なプライバシー保護メカニズムの開発の必要性を強調することを目的としています。
論文 参考訳(メタデータ) (2025-02-08T10:30:45Z) - Meeting Utility Constraints in Differential Privacy: A Privacy-Boosting Approach [7.970280110429423]
本稿では,ほとんどのノイズ付加型DP機構と互換性のあるプライバシブースティングフレームワークを提案する。
私たちのフレームワークは、ユーティリティ要件を満たすために、サポートの望ましいサブセットに出力が落ちる可能性を高める。
提案手法は,実用性制約下での標準DP機構よりも低いプライバシー損失を実現する。
論文 参考訳(メタデータ) (2024-12-13T23:34:30Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Differential Confounding Privacy and Inverse Composition [32.85314813605347]
本稿では,Pufferfishプライバシーフレームワークの特殊な形式であるtextitdifferential confounding Privacy (DCP)を紹介する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如していることが示されている。
我々は、リーダ・フォロワーモデルがターゲット保証を達成するためのプライバシ戦略を最適に設計する、textitInverse Composition (IC)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Improving the Variance of Differentially Private Randomized Experiments through Clustering [16.166525280886578]
差分的プライベートなメカニズムであるCluster-DPを提案する。
より高品質なクラスタを選択することで,プライバシー保証を損なうことなく,分散ペナルティを低減できることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。