論文の概要: Beyond Statistical Estimation: Differentially Private Individual Computation via Shuffling
- arxiv url: http://arxiv.org/abs/2406.18145v2
- Date: Fri, 12 Jul 2024 01:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 04:18:12.342553
- Title: Beyond Statistical Estimation: Differentially Private Individual Computation via Shuffling
- Title(参考訳): 統計的推定を超える:シャッフルによる個人個人計算
- Authors: Shaowei Wang, Changyu Dong, Xiangfu Song, Jin Li, Zhili Zhou, Di Wang, Han Wu,
- Abstract要約: 本稿では,PIC(Private Individual Computation)と呼ばれる新しいパラダイムを紹介する。
PICは、プライバシを保持しながらパーソナライズされたアウトプットを可能にし、シャッフルによってプライバシーを増幅する。
実用性を高めるためにPICモデルのために設計された最適確率化器Minkowski Responseを提案する。
- 参考スコア(独自算出の注目度): 21.031062710893867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In data-driven applications, preserving user privacy while enabling valuable computations remains a critical challenge. Technologies like Differential Privacy (DP) have been pivotal in addressing these concerns. The shuffle model of DP requires no trusted curators and can achieve high utility by leveraging the privacy amplification effect yielded from shuffling. These benefits have led to significant interest in the shuffle model. However, the computation tasks in the shuffle model are limited to statistical estimation, making the shuffle model inapplicable to real-world scenarios in which each user requires a personalized output. This paper introduces a novel paradigm termed Private Individual Computation (PIC), expanding the shuffle model to support a broader range of permutation-equivariant computations. PIC enables personalized outputs while preserving privacy, and enjoys privacy amplification through shuffling. We propose a concrete protocol that realizes PIC. By using one-time public keys, our protocol enables users to receive their outputs without compromising anonymity, which is essential for privacy amplification. Additionally, we present an optimal randomizer, the Minkowski Response, designed for the PIC model to enhance utility. We formally prove the security and privacy properties of the PIC protocol. Theoretical analysis and empirical evaluations demonstrate PIC's capability in handling non-statistical computation tasks, and the efficacy of PIC and the Minkowski randomizer in achieving superior utility compared to existing solutions.
- Abstract(参考訳): データ駆動アプリケーションでは、ユーザプライバシを保持しながら、価値のある計算を可能にすることは、依然として重要な課題である。
差別化プライバシ(DP)のような技術は、これらの懸念に対処する上で重要な役割を担っている。
DPのシャッフルモデルでは、信頼できるキュレーターは必要とせず、シャッフルから得られるプライバシー増幅効果を活用して高いユーティリティを実現することができる。
これらの利点はシャッフルモデルに大きな関心を惹いた。
しかし、シャッフルモデルの計算タスクは統計的推定に限られており、各ユーザがパーソナライズされた出力を必要とする実世界のシナリオには適用できない。
本稿では、より広い範囲の置換同変計算をサポートするためにシャッフルモデルを拡張した、PIC(Private Individual Computation)と呼ばれる新しいパラダイムを提案する。
PICは、プライバシを保持しながらパーソナライズされたアウトプットを可能にし、シャッフルによってプライバシーを増幅する。
PICを実現するための具体的なプロトコルを提案する。
本プロトコルでは,1回の公開鍵を使用すれば,プライバシーの増幅に不可欠な匿名性を損なうことなく,出力を受信することができる。
さらに,有効性を高めるためにPICモデルのために設計された最適確率化器であるミンコフスキー応答を提案する。
PICプロトコルのセキュリティおよびプライバシ特性を正式に証明する。
理論的解析と経験的評価は、PICが非統計計算タスクを処理し、PICとミンコフスキー確率化器が既存の解よりも優れた効用を達成できることを示す。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Efficient Fault-Tolerant Quantum Protocol for Differential Privacy in the Shuffle Model [2.0794380287086214]
本稿では,ランダムシャッフルを暗黙的に実装し,シャッフルモデルにおける差分プライバシーを実現する量子プロトコルを提案する。
シャッフルモデルは、データコントリビュータから得られる結果を増幅する。
例えば、mix-networksによるシャッフルの実装や、信頼できるサードパーティによるシャッフルなどです。
本稿では、量子状態の絡み合いを利用したプロトコルの量子バージョンを提案し、これらの余分な要求なしにシャッフルを実装可能であることを示す。
論文 参考訳(メタデータ) (2024-09-06T04:53:19Z) - Segmented Private Data Aggregation in the Multi-message Shuffle Model [9.298982907061099]
我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
論文 参考訳(メタデータ) (2024-07-29T01:46:44Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。