論文の概要: Metric Differential Privacy at the User-Level
- arxiv url: http://arxiv.org/abs/2405.02665v1
- Date: Sat, 4 May 2024 13:29:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 19:01:15.138229
- Title: Metric Differential Privacy at the User-Level
- Title(参考訳): ユーザレベルにおけるメトリック差分プライバシー
- Authors: Jacob Imola, Amrita Roy Chowdhury, Kamalika Chaudhuri,
- Abstract要約: 我々は、プライバシーの概念を得るために、地球移動距離(d_textsfEM$)をメトリクスとして使用します。
線形クエリとアイテムワイズクエリに応答する2つの新しいメカニズムを$d_textsfEM$-DPで設計する。
- 参考スコア(独自算出の注目度): 34.63551774740707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric differential privacy (DP) provides heterogeneous privacy guarantees based on a distance between the pair of inputs. It is a widely popular notion of privacy since it captures the natural privacy semantics for many applications (such as, for location data) and results in better utility than standard DP. However, prior work in metric DP has primarily focused on the \textit{item-level} setting where every user only reports a single data item. A more realistic setting is that of user-level DP where each user contributes multiple items and privacy is then desired at the granularity of the user's \textit{entire} contribution. In this paper, we initiate the study of metric DP at the user-level. Specifically, we use the earth-mover's distance ($d_\textsf{EM}$) as our metric to obtain a notion of privacy as it captures both the magnitude and spatial aspects of changes in a user's data. We make three main technical contributions. First, we design two novel mechanisms under $d_\textsf{EM}$-DP to answer linear queries and item-wise queries. Specifically, our analysis for the latter involves a generalization of the privacy amplification by shuffling result which may be of independent interest. Second, we provide a black-box reduction from the general unbounded to bounded $d_\textsf{EM}$-DP (size of the dataset is fixed and public) with a novel sampling based mechanism. Third, we show that our proposed mechanisms can provably provide improved utility over user-level DP, for certain types of linear queries and frequency estimation.
- Abstract(参考訳): メートル差プライバシー(DP)は、入力のペア間の距離に基づいて不均一なプライバシー保証を提供する。
多くのアプリケーション(ロケーションデータなど)の自然なプライバシセマンティクスをキャプチャし、結果として標準DPよりも便利になるため、プライバシの概念は広く普及している。
しかしながら、メトリックDPにおける以前の作業は主に、すべてのユーザが単一のデータ項目のみをレポートする、‘textit{item-level’設定に重点を置いていた。
より現実的な設定は、ユーザが複数のアイテムをコントリビュートし、ユーザの‘textit{entire}コントリビューションの粒度でプライバシを求める、ユーザレベルのDPである。
本稿では,ユーザレベルでのメートル法DPの研究を開始する。
具体的には、ユーザのデータの変化の大きさと空間的側面の両方をキャプチャするプライバシーの概念を得るために、アースモーバー距離(d_\textsf{EM}$)を使っています。
主な技術貢献は3つある。
まず、線形クエリとアイテムワイズクエリに応答する2つの新しいメカニズムを$d_\textsf{EM}$-DPで設計する。
具体的には、後者の分析は、独立した関心を持つかもしれないシャッフル結果によるプライバシー増幅の一般化を伴う。
第2に、新しいサンプリングベース機構により、非有界な一般から有界な$d_\textsf{EM}$-DP(データセットのサイズは固定され公開されている)へのブラックボックスの削減を提供する。
第3に,提案手法は,特定の種類の線形クエリや周波数推定に対して,ユーザレベルのDPよりも有効性を向上できることを示す。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Locality Sensitive Hashing with Extended Differential Privacy [4.328040096675791]
拡張差分プライバシーは、一般的な計量を用いた標準差分プライバシーの一般化である。
拡張DPに関する既存の研究は、ユークリッド計量のようないくつかの指標に限られている。
角距離が拡張されたDPを提供する2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T11:30:51Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。