論文の概要: Differentially Private Aggregation via Imperfect Shuffling
- arxiv url: http://arxiv.org/abs/2308.14733v1
- Date: Mon, 28 Aug 2023 17:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 07:22:30.499681
- Title: Differentially Private Aggregation via Imperfect Shuffling
- Title(参考訳): 不完全なシャッフルによる個人集団の識別
- Authors: Badih Ghazi, Ravi Kumar, Pasin Manurangsi, Jelani Nelson, Samson Zhou,
- Abstract要約: 本稿では,メッセージがほぼ均一にシャッフルされる不完全なシャッフル差分プライバシモデルを導入し,キュレーターによるプライベートアグリゲーションの検証を行った。
驚くべきことに、不完全なシャッフルモデルには追加のエラーオーバーヘッドは必要ない。
- 参考スコア(独自算出の注目度): 64.19885806149958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce the imperfect shuffle differential privacy model, where messages sent from users are shuffled in an almost uniform manner before being observed by a curator for private aggregation. We then consider the private summation problem. We show that the standard split-and-mix protocol by Ishai et. al. [FOCS 2006] can be adapted to achieve near-optimal utility bounds in the imperfect shuffle model. Specifically, we show that surprisingly, there is no additional error overhead necessary in the imperfect shuffle model.
- Abstract(参考訳): 本稿では,未完成なシャッフル差分プライバシモデルを紹介し,ユーザからのメッセージは,キュレーターがプライベートアグリゲーションのために観察する前にほぼ均一にシャッフルされる。
次に、私的和問題を考える。
We show that that the standard split-and-mix protocol by Ishai et al [FOCS 2006] can be adapt to achieve near-timal utility bounds in the imperfect shuffle model。
特に,不完全なシャッフルモデルでは,追加のエラーオーバーヘッドは発生しない。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Efficient Fault-Tolerant Quantum Protocol for Differential Privacy in the Shuffle Model [2.0794380287086214]
本稿では,ランダムシャッフルを暗黙的に実装し,シャッフルモデルにおける差分プライバシーを実現する量子プロトコルを提案する。
シャッフルモデルは、データコントリビュータから得られる結果を増幅する。
例えば、mix-networksによるシャッフルの実装や、信頼できるサードパーティによるシャッフルなどです。
本稿では、量子状態の絡み合いを利用したプロトコルの量子バージョンを提案し、これらの余分な要求なしにシャッフルを実装可能であることを示す。
論文 参考訳(メタデータ) (2024-09-06T04:53:19Z) - Optimal Private Discrete Distribution Estimation with One-bit Communication [63.413106413939836]
1ビット通信制約を伴う個別分布推定問題を考える。
1ビット通信制約下での最悪のトレードオフの1次を特徴付ける。
これらの結果は,1ビット通信制約下でのプライバシユーティリティトレードオフの最適依存性を示す。
論文 参考訳(メタデータ) (2023-10-17T05:21:19Z) - Concurrent Shuffle Differential Privacy Under Continual Observation [60.127179363119936]
個人的連続和問題(対数問題)について検討する。
並列シャッフルモデルでは,標準シャッフルモデルに比べて誤差が大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2023-01-29T20:42:54Z) - Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response [6.260747047974035]
ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
論文 参考訳(メタデータ) (2022-05-18T10:44:28Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Shuffle Private Linear Contextual Bandits [9.51828574518325]
シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
論文 参考訳(メタデータ) (2022-02-11T11:53:22Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - On the Round Complexity of the Shuffle Model [25.454520433661646]
分散微分プライベート計算の実行可能なモデルとして、微分プライバシのシャッフルモデルが提案された。
両当事者がシャッフルの1ラウンドで秘密のメッセージを送信し、まず秘密の鍵を作らなくてもよいことを示す。
そこで本研究では,正当性の仮定を必要としないシャッフルモデルにおける微分プライベート計算について検討する。
論文 参考訳(メタデータ) (2020-09-28T17:57:42Z) - Connecting Robust Shuffle Privacy and Pan-Privacy [11.367579037903734]
差分プライバシのEmphshuffleモデルでは、データ保持ユーザはセキュアなシャフラーにランダム化されたメッセージを送信し、シャフラーはメッセージを置換する。
Emphpan-privateモデルでは、アルゴリズムがストリームデータに関して異なるプライベートな内部状態を維持しながら、データのストリームを処理する。
弊社の結果は、プライバシー保証が悪意のあるユーザの影響を大きく受けていないプライベートプロトコルを不当にシャッフルすることに焦点を当てている。
論文 参考訳(メタデータ) (2020-04-20T17:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。