論文の概要: Partial sensitivity analysis in differential privacy
- arxiv url: http://arxiv.org/abs/2109.10582v1
- Date: Wed, 22 Sep 2021 08:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 19:49:30.145331
- Title: Partial sensitivity analysis in differential privacy
- Title(参考訳): 差分プライバシーにおける部分感度解析
- Authors: Tamara T. Mueller, Alexander Ziller, Dmitrii Usynin, Moritz Knolle,
Friederike Jungmann, Daniel Rueckert, Georgios Kaissis
- Abstract要約: それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
- 参考スコア(独自算出の注目度): 58.730520380312676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) allows the quantification of privacy loss when the
data of individuals is subjected to algorithmic processing such as machine
learning, as well as the provision of objective privacy guarantees. However,
while techniques such as individual R\'enyi DP (RDP) allow for granular,
per-person privacy accounting, few works have investigated the impact of each
input feature on the individual's privacy loss. Here we extend the view of
individual RDP by introducing a new concept we call partial sensitivity, which
leverages symbolic automatic differentiation to determine the influence of each
input feature on the gradient norm of a function. We experimentally evaluate
our approach on queries over private databases, where we obtain a feature-level
contribution of private attributes to the DP guarantee of individuals.
Furthermore, we explore our findings in the context of neural network training
on synthetic data by investigating the partial sensitivity of input pixels on
an image classification task.
- Abstract(参考訳): 差分プライバシー(DP)は、個人のデータが機械学習などのアルゴリズム処理の対象となった場合のプライバシー損失の定量化と、客観的プライバシー保証の提供を可能にする。
しかしながら、個々のR\enyi DP(RDP)のような技術は、個人ごとのプライバシー会計をきめ細かいものにすることができるが、個々の入力機能が個人のプライバシー喪失に与える影響を調査する研究はほとんどない。
本稿では,関数の勾配ノルムに対する各入力特徴の影響を記号的自動微分を用いて決定する,部分感度と呼ばれる新しい概念を導入することで,個々のrdpの視点を拡張する。
プライベートデータベース上でのクエリに対するアプローチを実験的に評価し,個人のdp保証に対するプライベート属性の機能レベルの貢献を得た。
さらに,画像分類タスクにおける入力画素の部分感度について検討し,合成データに対するニューラルネットワークトレーニングの文脈における知見について検討した。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Contextualize differential privacy in image database: a lightweight
image differential privacy approach based on principle component analysis
inverse [35.06571163816982]
差分プライバシー(DP)は、データベース内のプライバシーに敏感な情報を保存するためのデファクトスタンダードである。
DPの統合によるプライバシ・精度のトレードオフは、差分プライベート画像データベースの文脈では不十分である。
本研究の目的は、概念微分プライバシーと画像の統合を明示的かつ直感的に示すことによって、画像中のDPを文脈化することである。
論文 参考訳(メタデータ) (2022-02-16T19:36:49Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。