論文の概要: Integrating Differential Privacy and Contextual Integrity
- arxiv url: http://arxiv.org/abs/2401.15774v1
- Date: Sun, 28 Jan 2024 21:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:38:34.920407
- Title: Integrating Differential Privacy and Contextual Integrity
- Title(参考訳): 差分プライバシーとコンテキスト統合の統合
- Authors: Sebastian Benthall and Rachel Cummings
- Abstract要約: 微分プライバシー(DP)と文脈整合性(CI)を統合するための最初のフレームワークを提案する。
DPは、統計ノイズをデータベース内で表現された個人に関する不明瞭な情報に注入するアルゴリズムである。
CIはプライバシを,社会的コンテキストに適した情報フローとして定義する。
- 参考スコア(独自算出の注目度): 13.49058366283973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose the first framework for integrating Differential
Privacy (DP) and Contextual Integrity (CI). DP is a property of an algorithm
that injects statistical noise to obscure information about individuals
represented within a database. CI defines privacy as information flow that is
appropriate to social context. Analyzed together, these paradigms outline two
dimensions on which to analyze privacy of information flows: descriptive and
normative properties. We show that our new integrated framework provides
benefits to both CI and DP that cannot be attained when each definition is
considered in isolation: it enables contextually-guided tuning of the epsilon
parameter in DP, and it enables CI to be applied to a broader set of
information flows occurring in real-world systems, such as those involving PETs
and machine learning. We conclude with a case study based on the use of DP in
the U.S. Census Bureau.
- Abstract(参考訳): 本稿では,差分プライバシー(dp)とコンテキスト整合性(ci)を統合するための最初のフレームワークを提案する。
DPは、統計ノイズをデータベース内で表現された個人に関する情報に注入するアルゴリズムの特性である。
CIはプライバシを,社会的コンテキストに適した情報フローとして定義する。
分析されたこれらのパラダイムは、情報フローのプライバシーを分析する2つの次元(記述的および規範的特性)を概説する。
新しい統合フレームワークは、それぞれの定義が独立して検討されているときに達成できないCIとDPの両方にメリットがあることを示します。これは、DPにおけるエプシロンパラメータの文脈的に誘導されたチューニングを可能にし、PETや機械学習など、現実のシステムで発生する幅広い情報フローにCIを適用することを可能にする。
我々は,米国国勢調査局におけるDPの使用に基づくケーススタディで結論付けた。
関連論文リスト
- Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - ULDP-FL: Federated Learning with Across Silo User-Level Differential Privacy [19.017342515321918]
Differentially Private Federated Learning (DP-FL)は、正式なプライバシを保証するための協調的な機械学習アプローチとして注目を集めている。
Uldp-FLは,単一ユーザのデータが複数のサイロに属する可能性のあるクロスサイロFLにおいて,ユーザレベルのDPを保証するように設計された,新しいFLフレームワークである。
論文 参考訳(メタデータ) (2023-08-23T15:50:51Z) - SoK: Privacy-Preserving Data Synthesis [72.92263073534899]
本稿では,プライバシ保護データ合成(PPDS)に注目し,その分野の総合的な概要,分析,議論を行う。
PPDSでは,統計的手法と深層学習(DL)に基づく手法の2つの顕著な研究を統一するマスターレシピを作成した。
論文 参考訳(メタデータ) (2023-07-05T08:29:31Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Performance Optimization for Semantic Communications: An Attention-based
Reinforcement Learning Approach [187.4094332217186]
テキストデータ伝送のためのセマンティック通信フレームワークを提案する。
回復したテキストの意味的精度と完全性を共同でキャプチャする意味的類似度尺度(MSS)を提案する。
論文 参考訳(メタデータ) (2022-08-17T11:39:16Z) - "Am I Private and If So, how Many?" -- Using Risk Communication Formats
for Making Differential Privacy Understandable [0.0]
我々は、差別化プライバシのプライバシリスクモデルと合わせて、リスクコミュニケーションフォーマットを適応する。
我々はこれらの新しいプライバシーコミュニケーションフォーマットをクラウドソーシング研究で評価する。
論文 参考訳(メタデータ) (2022-04-08T13:30:07Z) - Differentially Private Federated Learning on Heterogeneous Data [10.431137628048356]
フェデレートラーニング(Federated Learning、FL)は、大規模分散ラーニングのパラダイムである。
i)高度に異質なユーザデータからの効率的なトレーニング、(ii)参加ユーザのプライバシ保護という2つの大きな課題に直面しています。
本稿では,差分プライバシー(DP)制約を取り入れた新しいFL手法を提案する。
論文 参考訳(メタデータ) (2021-11-17T18:23:49Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。