論文の概要: Beyond Statistical Estimation: Differentially Private Individual Computation in the Shuffle Model
- arxiv url: http://arxiv.org/abs/2406.18145v1
- Date: Wed, 26 Jun 2024 07:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 14:18:49.870054
- Title: Beyond Statistical Estimation: Differentially Private Individual Computation in the Shuffle Model
- Title(参考訳): 統計的推定を超える:シャッフルモデルにおける個人個人計算
- Authors: Shaowei Wang, Changyu Dong, Di Wang, Xiangfu Song,
- Abstract要約: 本研究は,非統計計算におけるシャッフル・プライバシ・アンプリフィケーションの実現可能性について検討する。
本稿では、メッセージ認証や結果アクセス制御といった重要なセキュリティ機能を提供できるシャッフルモデルの新たなパラダイムを提案する。
我々のパラダイムとメカニズムは、最大90%のエラーを減らし、実用性能を100%-300%向上させながら、非プライベートな設定として高速であることを示す。
- 参考スコア(独自算出の注目度): 11.678925025678895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The shuffle model of differential privacy (DP) has recently emerged as a powerful one for decentralized computation without fully trustable parties. Since it anonymizes and permutes messages from clients through a shuffler, the privacy can be amplified and utility can be improved. However, the shuffling procedure in turn restricts its applications only to statistical tasks that are permutation-invariant. This work explores the feasibility of shuffle privacy amplification for prevalent non-statistical computations: spatial crowdsourcing, combinatorial optimization, location-based social systems, and federated learning with incentives, which suffer either computationally intractability or intolerable utility loss in existing approaches (e.g., secure MPC and local DP). We proposes a new paradigm of shuffle model that can provide critical security functionalities like message authorization and result access control, meanwhile maintaining the most of privacy amplification effects. It incurs almost the same computation/communication costs as the non-private setting, and permits the server to run arbitrary algorithms on (noisy) client information in plaintext. Our novel technique is introducing statistically random identity into DP and force identical random distribution on all clients, so as to support secure functionalities even after message shuffling and to maintain privacy amplification simultaneously. Given that existing DP randomizers fails in the new shuffle model, we also propose a new mechanism and prove its optimality therein. Experimental results on spatial crowdsourcing, location-based social system, and federated learning with incentives, show that our paradigm and mechanism is fast as non-private settings, while reducing up to 90% error and increasing utility performance indicates by 100%-300% relatively, and can be practical under reasonable privacy budget.
- Abstract(参考訳): ディファレンシャルプライバシ(DP)のシャッフルモデルは,信頼性の高いパーティを伴わない分散計算の強力なモデルとして最近登場した。
クライアントからのメッセージをシャッフルを通じて匿名化し、パーミュートするので、プライバシを増幅し、ユーティリティを改善することができる。
しかしシャッフル法は、置換不変な統計的タスクにのみ適用を制限している。
この研究は、空間的クラウドソーシング、組合せ最適化、位置ベース社会システム、および既存のアプローチ(例えば、セキュアなMPCとローカルDP)において、計算上の難易度または耐用性を失うインセンティブによる連合学習といった、一般的な非統計計算に対するシャッフルプライバシの増幅の実現可能性について検討する。
我々は、メッセージの承認や結果アクセス制御といった重要なセキュリティ機能を提供できるシャッフルモデルの新たなパラダイムを提案し、一方で、プライバシーの増幅効果を最大限に維持する。
これは非プライベート設定とほぼ同じ計算/通信コストを発生させ、サーバが(ノイズの多い)クライアント情報をプレーンテキストで任意のアルゴリズムを実行することを可能にする。
提案手法は,DPに統計的にランダムなIDを導入し,すべてのクライアントに同一のランダムな分布を強制し,メッセージシャッフル後にもセキュアな機能をサポートし,同時にプライバシーの増幅を維持する。
新しいシャッフルモデルでは既存のDPランダム化器がフェールするので、新しい機構を提案し、その最適性を証明する。
空間的クラウドソーシング,位置ベースソーシャルシステム,インセンティブによるフェデレーション学習による実験結果から,我々のパラダイムとメカニズムは非プライベートな設定と同じくらい高速であり,最大90%のエラーを低減し,実用性の向上は100%~300%の相対性を示し,合理的なプライバシー予算の下で実用的であることが示された。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Private Fine-tuning of Large Language Models with Zeroth-order
Optimization [54.24600476755372]
DP-ZO(DP-ZO)は、ゼロオーダー最適化を民営化し、トレーニングデータのプライバシを保存する、大規模言語モデルを微調整する新しい手法である。
DP-ZOは、SQuADから1000のトレーニングサンプルにOPT-66Bを微調整すると、プライバシが1,10-5)$-DPになるため、わずか1.86%のパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - FLAME: Differentially Private Federated Learning in the Shuffle Model [25.244726600260748]
フェデレートラーニング(FL)は、分析者がユーザーの生データを収集することなくモデルをトレーニングできる、有望な機械学習パラダイムである。
本稿では、シャッフルモデルにおけるFLフレームワークと、既存の作業から拡張された単純なプロトコル(SS-Simple)を提案する。
モデルパラメータの次元が非常に大きいため, SS-Simple は FL のプライバシー強化効果が不十分であることがわかった。
モデルサイズがユーザ人口より大きい場合の実用性を高めるため,勾配スペーシング技術を用いた高度なプロトコル(SS-Topk)を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:44:27Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。