論文の概要: Privately Publishable Per-instance Privacy
- arxiv url: http://arxiv.org/abs/2111.02281v1
- Date: Wed, 3 Nov 2021 15:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:16:13.866112
- Title: Privately Publishable Per-instance Privacy
- Title(参考訳): プライベートに公開可能な個人プライバシ
- Authors: Rachel Redberg, Yu-Xiang Wang
- Abstract要約: 客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
- 参考スコア(独自算出の注目度): 21.775752827149383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider how to privately share the personalized privacy losses incurred
by objective perturbation, using per-instance differential privacy (pDP).
Standard differential privacy (DP) gives us a worst-case bound that might be
orders of magnitude larger than the privacy loss to a particular individual
relative to a fixed dataset. The pDP framework provides a more fine-grained
analysis of the privacy guarantee to a target individual, but the per-instance
privacy loss itself might be a function of sensitive data. In this paper, we
analyze the per-instance privacy loss of releasing a private empirical risk
minimizer learned via objective perturbation, and propose a group of methods to
privately and accurately publish the pDP losses at little to no additional
privacy cost.
- Abstract(参考訳): 目的の摂動によって生じるパーソナライズされたプライバシ損失を,PDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
標準差分プライバシ(dp)は、固定データセットに対する特定の個人に対するプライバシの損失よりも桁違いに大きい、最悪のケース境界を提供します。
pDPフレームワークは、ターゲット個人に対してより詳細なプライバシ保証の分析を提供するが、インスタンスごとのプライバシ損失自体が機密データの機能である可能性がある。
本稿では,目的的摂動によって学習した個人的経験的リスク最小化によるプライバシ損失を分析し,プライバシコストを少しか全く増やさずに,個人的かつ正確にpdp損失を公表する方法を提案する。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Confounding Privacy and Inverse Composition [32.85314813605347]
差分プライバシーでは、センシティブな情報がデータセットに含まれ、Pufferfishのプライバシでは、センシティブな情報がデータの配布を決定する。
我々は、差分プライバシーとPufferfishプライバシーの両方を一般化する新しいプライバシー概念(epsilon, delta$)を導入する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Privately Answering Queries on Skewed Data via Per Record Differential Privacy [8.376475518184883]
我々はプライバシ・フォーマリズムを提案し、PzCDP(0集中差分プライバシー)を記録単位とする。
異なるレコードに対して異なるプライバシ損失を提供する他の形式主義とは異なり、PzCDPのプライバシ損失は機密データに明示的に依存する。
論文 参考訳(メタデータ) (2023-10-19T15:24:49Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。