論文の概要: Connecting Robust Shuffle Privacy and Pan-Privacy
- arxiv url: http://arxiv.org/abs/2004.09481v4
- Date: Wed, 12 Aug 2020 03:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:12:55.177138
- Title: Connecting Robust Shuffle Privacy and Pan-Privacy
- Title(参考訳): ロバストなシャッフルプライバシーとパンプライバシーを結びつける
- Authors: Victor Balcer, Albert Cheu, Matthew Joseph, and Jieming Mao
- Abstract要約: 差分プライバシのEmphshuffleモデルでは、データ保持ユーザはセキュアなシャフラーにランダム化されたメッセージを送信し、シャフラーはメッセージを置換する。
Emphpan-privateモデルでは、アルゴリズムがストリームデータに関して異なるプライベートな内部状態を維持しながら、データのストリームを処理する。
弊社の結果は、プライバシー保証が悪意のあるユーザの影響を大きく受けていないプライベートプロトコルを不当にシャッフルすることに焦点を当てている。
- 参考スコア(独自算出の注目度): 11.367579037903734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the \emph{shuffle model} of differential privacy, data-holding users send
randomized messages to a secure shuffler, the shuffler permutes the messages,
and the resulting collection of messages must be differentially private with
regard to user data. In the \emph{pan-private} model, an algorithm processes a
stream of data while maintaining an internal state that is differentially
private with regard to the stream data. We give evidence connecting these two
apparently different models.
Our results focus on \emph{robustly} shuffle private protocols, whose privacy
guarantees are not greatly affected by malicious users. First, we give robustly
shuffle private protocols and upper bounds for counting distinct elements and
uniformity testing. Second, we use pan-private lower bounds to prove robustly
shuffle private lower bounds for both problems. Focusing on the dependence on
the domain size $k$, we find that robust approximate shuffle privacy and
approximate pan-privacy have additive error $\Theta(\sqrt{k})$ for counting
distinct elements. For uniformity testing, we give a robust approximate shuffle
private protocol with sample complexity $\tilde O(k^{2/3})$ and show that an
$\Omega(k^{2/3})$ dependence is necessary for any robust pure shuffle private
tester. Finally, we show that this connection is useful in both directions: we
give a pan-private adaptation of recent work on shuffle private histograms and
use it to recover further separations between pan-privacy and interactive local
privacy.
- Abstract(参考訳): 差分プライバシの‘emph{shuffle model’では、データ保持ユーザはセキュアなシャフラーにランダム化されたメッセージを送信し、シャフラーはメッセージを置換し、その結果のメッセージの集合はユーザデータに関して微分プライベートでなければならない。
emph{pan-private}モデルでは、アルゴリズムはストリームデータに関して差分プライベートな内部状態を維持しながら、データのストリームを処理する。
これら2つのモデルをつなぐ証拠を与えます。
弊社の結果は、プライバシー保証が悪意のあるユーザの影響を大きく受けていないプライベートプロトコルのシャッフルに焦点が当てられている。
まず、異なる要素を数えるための厳密なシャッフルなプライベートプロトコルと上限を与え、一様性テストを行う。
第二に、両問題に対するプライベートなローバウンドを頑健にシャッフルすることを示すために、パンプライベートなローバウンドを用いる。
ドメインサイズへの依存に着目すると、堅牢なシャッフルプライバシと近似パンプライバシーは、異なる要素を数えるための加算誤差$\theta(\sqrt{k})$を持つことが分かる。
均一性テストでは、サンプル複雑性$\tilde O(k^{2/3})$でロバストな近似シャッフルプライベートプロトコルを提供し、ロバストな純粋なシャッフルプライベートテスターには$\Omega(k^{2/3})$依存が必要であることを示す。
最後に、この接続は両方の方向において有用であることを示す: シャッフルプライベートヒストグラムに関する最近の研究をパンプライベートに適応させ、パンプライベートとインタラクティブなローカルプライバシの間のさらなる分離を回復するためにそれを利用する。
関連論文リスト
- Private Fine-tuning of Large Language Models with Zeroth-order
Optimization [54.24600476755372]
DP-ZO(DP-ZO)は、ゼロオーダー最適化を民営化し、トレーニングデータのプライバシを保存する、大規模言語モデルを微調整する新しい手法である。
DP-ZOは、SQuADから1000のトレーニングサンプルにOPT-66Bを微調整すると、プライバシが1,10-5)$-DPになるため、わずか1.86%のパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Concurrent Shuffle Differential Privacy Under Continual Observation [60.127179363119936]
個人的連続和問題(対数問題)について検討する。
並列シャッフルモデルでは,標準シャッフルモデルに比べて誤差が大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2023-01-29T20:42:54Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Uniformity Testing in the Shuffle Model: Simpler, Better, Faster [0.0]
均一性テスト(英: Uniformity testing)または独立した観察が均一に分散されているかどうかをテストすることは、分散テストにおける問題である。
本研究では,シャッフルモデルにおける既知の一様性試験アルゴリズムの解析を大幅に単純化する。
論文 参考訳(メタデータ) (2021-08-20T03:43:12Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Successive Refinement of Privacy [38.20887036580742]
本研究は、局所微分プライバシー(LDP)を実現するために、どの程度ランダム性が必要かを検討する。
モチベーションシナリオは、複数のアナリストに複数のレベルのプライバシを提供することである。
各ユーザのプライバシーを維持しながら、ランダムなキーを時間の経過とともに再利用できないことを示す。
論文 参考訳(メタデータ) (2020-05-24T04:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。